La “curva de pato”y la planificación de la red


[Publicado 09/01/2021 . actualizado 09/05/2022]

Antes de la incidencia del auge de la generación por paneles solares, y usos de los autos eléctricos, la generación estaba dominada por plantas de carbón y plantas nucleares. De dia, evidentemente por alto consumo motivado a actividades productivas las tarifas se hacia mas costosas, mientras que  la electricidad nocturna resultaba barata, forzados por las plantas de carbón y nucleares que funcionan las 24 horas. Esta política empujo a la mayoría de los usuarios al consumo en los bordes de la curva

Si invierte la política de precios y el consumo de los usuarios se mueve hacia precios baratos durante el mediodía, mientras que los precios por la noche aumentan, las plantas de carbón estarían forzadas a cerrar: Poco consumo el el dia por la suplencia desde la energía solar, y poco consumo en la noche por el alto costo.

El problema con la energía solar fotovoltaica proviene de su prioridad de alimentación. El problema continuará mientras que:
-A los propietarios/productores de energía solar se les pague por su producción, independientemente de cuándo la entreguen
-Los propietarios de energía fotovoltaica puedan descargar cada kWh de energía solar directamente a la red sin tener en cuenta el resto del mercado de energía.

Sobre los estudios de adecuación del sistema eléctrico: «pronóstico de adecuación a medio plazo de ENTSO-E, edición de 2017». Incluye por primera vez el análisis de flexibilidad, principalmente en cuanto a las rampas de carga residuales horarias (es decir, los cambios horarios de carga menos la generación de energía renovable variable) que se solicitan a las unidades de generación despachables al considerar cada nodo de mercado de forma independiente (figura 36 / 37).
Se muestra la correlación entre rampas de carga residual vs capacidad renovable instalada (figura 38), donde Alemania es el peor caso, pero GB no está muy lejos.
.
https://www.entsoe.eu/Documents/SDC%20documents/MAF/MAF_2017_report_for_consultation.pdf

se resolvería naturalmente con la respuesta de la demanda si:
-las empresas de servicios públicos crean planes de ToU (tiempo de Uso) para incentivar al consumidor promedio.
-Se revierte el hecho de que los usuarios de altos ingresos tienen incentivos para instalar costosos sistemas solares, lo que solo amplifica la curva de pato.
-Se crean incentivos para que los usuarios usen su propia electricidad en el vientre del pato y no en la cabeza o el cuello, casi todos con un buen sistema aislado harían funcionar su HVAC (Heating, ventilation and air conditioning -technology of indoor and vehicular environmental comfort-) ya sea programado, automático o manual.
-Se observa que naturalmente los usuarios con menos ingresos  que no estarían completamente aislados de la red estarían usando menos HVAC .

El suministro de electricidad se ejecuta sobre la base de Just In Time Delivery. En términos de entrega JIT, hay 365 x 24 x 60 = 525,600 eventos de entrega que deben planificarse y cumplirse en un año manteniendo la calidad de la energía en términos de voltaje y frecuencia.
Las curvas que muestra para la generación de energía solar son relativamente suaves, sin embargo, a menudo este no es el caso.
En el siguiente sitio web (producción real de las granjas solares en Australia), se ve que la variabilidad durante el período de producción son bastante grandes, del 20 % al 40 %, y prácticamente instantáneos.

.http://anero.id/energia/energia-solar

=========================================================

ARCHIVOS RECUPERADOS

Tabla de contenido

2017.11.15-La California Duck Curve no se limita a California. 1
Procedimiento. 3
La curva del pato de California: 3
La curva del pato francés: 4
La curva del pato alemán: 4
La curva del pato australiano: 5
La curva del pato de Samoa Americana: 5
Conclusiones: 6

2020.07.29-Alisar la “curva de pato”: la afluencia de vehículos eléctricos acelera la necesidad de planificar la red   7
Se acerca la electrificación del transporte. 8
Alisar la curva del pato. 8
Los escenarios plausibles enfatizan la necesidad de planificar. 9
Adelantarse a la curva. 9

Vinculos. 10

====================================================

2017.11.15-La California Duck Curve no se limita a California

Publicado el 15 de noviembre de 2017 por Roger Andrews

La California Duck Curve está causando preocupación entre las empresas de servicios públicos de California, que se preguntan si podrán aumentar la generación lo suficientemente rápido para satisfacer la demanda máxima de la tarde cuando entre en funcionamiento toda la nueva capacidad solar que California planea agregar en los próximos años. Sin embargo, como señala el título de esta publicación, la California Duck Curve no es exclusiva de California. Está presente en todas partes en mayor o menor medida, independientemente de la forma de la curva de carga diaria, y en muchos lugares es un problema más grave que en California.

Del Instituto de Investigaciones Energéticas :

(The California Duck Curve) proporciona un escenario de un día soleado donde la generación fotovoltaica distribuida reduce la demanda de electricidad no solar a niveles extremadamente bajos al mediodía cuando el sol está en su punto más alto y la generación fotovoltaica distribuida está en su punto más alto. Es decir, las capacidades de generación no solar del estado deben reducir su producción a niveles ineficientes cuando el suministro de energía en el “vientre” del pato de la generación solar distribuida está en su punto más alto. Más tarde en el día, cuando la generación solar está disminuyendo y los residentes de California regresan a casa del trabajo y encienden sus electrodomésticos, la demanda de electricidad aumenta drásticamente, lo que requiere que la capacidad de generación flexible entre en línea muy rápidamente para satisfacerla. La ISO de California está preocupada de que el «cuello» de la curva del pato pueda abrumar la capacidad de generación disponible del estado.

(1)Generación solar frente a demanda, datos por hora,
(2)Demanda menos generación solar (curvas de demanda)
(3)Tasas de rampa calculadas a partir de la Figura 2, datos por hora,
California,   16 de julio de 2015
Francia, 17 de julio de 2016
Alemania
, 21 de agosto de 2016
Australia
, 28 de octubre de 2017
Samoa Americana
, 12 de febrero de 2013

 

La figura 1 , abajo, muestra la curva de pato. Ilustra claramente el problema que enfrentan los servicios públicos de California. Agregar más generación solar aumenta las tasas de rampa que conducen al pico de demanda vespertino que coincide con la puesta del sol, y si se agrega lo suficiente, la capacidad de seguimiento de carga de California podría verse incapaz de aumentar lo suficientemente rápido como para mantener los aires acondicionados en funcionamiento. ¿Podría pasar esto? La solución obvia es construir más plantas CCGT o agregar menos energía solar, o alguna combinación de ambas, pero California, siendo California, se está poniendo énfasis en panaceas verdes como baterías, pequeñas centrales hidroeléctricas y gestión de la demanda. Así que la respuesta es sí, podría:

[ – ]Figura 1: La Curva del Pato de California. La carga neta se explica a continuación. Datos del Operador Independiente del Sistema de California (CAISO)

Sin embargo, generalmente se piensa que la California Duck Curve es algo que afecta solo a California. Aquí extiendo la búsqueda para ver si las curvas de pato ocurren en otros lugares. Y como veremos, las curvas de carga que imitan la forma de un pato, o al menos la forma de un pato en vuelo, también están presentes en Europa, Australia y el Pacífico. California no está sola.

Procedimiento

Hay 365 formas de comparar la generación solar diaria con la demanda diaria en el año promedio, pero para reducir las cosas a una duración manejable, seleccioné solo un día para cada una de las cinco jurisdicciones para las que tenía suficientes datos de red para realizar un análisis (California , Francia, Alemania, Australia y Samoa), el día en que la generación solar fue más alta. Este es el día en el que podríamos esperar que el desequilibrio de la demanda solar sea mayor, aunque puede haber otros días en los que sea mayor (la curva de pato que se muestra arriba es para el 31 de marzo, el día en el que se prevé que el desequilibrio de la demanda solar de California será mayor). ser mayor).

Para la curva de pato análoga de California, escalé los números de generación de la red por hora para el día elegido para que la energía solar contribuyera con el 5 %, 10 %, 20 % y 30 % de la generación anual total, y los resté de la demanda diaria. Por supuesto, los resultados no serán completamente diagnósticos, pero brindan una buena indicación de cómo los cuatro países/estados están posicionados para lidiar con niveles más altos de generación solar.

La curva del pato de California:

Ya sabemos que California tiene una curva de pato, pero pensé que sería instructivo ver si podía replicarla. Para hacer esto, utilicé los datos de la red de 2015 de la Una mirada más detallada a los datos de la red de California y seleccioné el día con la producción solar máxima (16 de julio). Luego factoricé los datos solares del día para que contribuyeran con el 5 %, 10 %, 20 % y 30 % de la generación total de 2015 y los comparé con la demanda del 16 de julio de 2015. Los resultados se muestran en la Figura 2:

Figura 2: Generación solar frente a demanda, datos por hora, California, 16 de julio de 2015

Para duplicar el formato de la curva de pato, resté la energía solar de la demanda para cuantificar los cambios de carga netos causados ​​por cantidades crecientes de generación solar. Los resultados muestran las curvas de demanda que las plantas de seguimiento de carga de California deben seguir para mantener los acondicionadores de aire de California funcionando en los cuatro niveles diferentes de penetración solar considerados. Teniendo en cuenta que no puedo replicar la forma de la cabeza con solo un día de datos, diría que la Figura 3 era un facsímil razonable de un pato:

Figura 3: Demanda menos generación solar (curvas de demanda), datos por hora, California, 16 de julio de 2015

La Figura 4 muestra el impacto del aumento de la generación solar en las tasas de rampa:

Figura 4: Tasas de rampa calculadas a partir de la Figura 2, datos por hora, California, 16 de julio de 2015

Las tasas de rampa permanecen sustancialmente sin cambios a niveles de penetración solar de hasta el 10 %, pero aumentan rápidamente por encima de ese nivel a entre 5000 y 8000 MW/hora con una penetración del 20 % y el 30 %, comparables a los que se muestran en la Figura 1. Sin embargo, serían mayor si el muestreo se realizó a intervalos de más de una hora. En la actualidad, alrededor del 8% de la generación en el estado de California es solar, y aunque la Figura 1 no muestra un excedente (es decir, negativo), la reducción de los excedentes solares diurnos todavía es a veces necesaria.

Italia:

 Italia A sido uno de los paises  con mayor penetración de electricidad fotovoltaica y el país de la UE con la mayor penetración de electricidad importada:
De ~290TWh/a generados en total.,
23 TWh/a  son fotovoaltaivos (más del 8%)
40-44 TWh/año es electricidad importada de energia nuclear de Francia, Checoslovaquia y Eslovenia.(dependiendo del año).
Esto hace que
la curva de pato no sea visible pues basta con reducir la rata de entrega de la electricidad importada para resolver el problema.
Esta situación no cambiará en el corto plazo, ya que  en Italia casi se han detenido tan pronto como el gobierno decidió detener los jugosos «incentivos»
A
fines de 2013 se detivieron los incentivos para generar energia fotovltaica, lo que casi detuvo las instalaciones fotovoltaicas hasta un ritmo de 300-500 MWp/año, aunque igualmente los sistemas Fotovoltaicos  existentes  van a requerir  ser renovados debido a la degradación del rendimiento. 
El incentivo de basaba en financiar con 6.700 millones de euros/año  los 23 TWh, a un coste promedio por kWh de unos 29 cEuro, frente a los 4,5 cEuro/kWh del mercado eléctrico.

Los centros de carga se ecuentran en el norte del país

En cuanto a recursos eólicos, que tampoco coinciden con los centros de carga, la nueva energía eólica terrestre tiene dificultades para ser aceptada por las poblaciones locales, donde sea y cuando sea que se construyan nuevas turbinas. propuesto.

La curva del pato francés:

Para Francia, utilicé datos de 2016 del sitio PF Bach , con la generación solar máxima ocurriendo el 17 de julio de ese año. La generación solar de la red se escaló nuevamente para igualar la demanda anual de los niveles del 5 %, 10 %, 20 % y 30 %. Los resultados se muestran en la Figura 5, que combina los tres tipos de figura mostrados anteriormente. La segunda trama parece un pato muy gordo, o tal vez un pato en pleno vuelo:

Figura 5: Generación solar frente a demanda, demanda menos generación solar y tasas de rampa, datos por hora, Francia, 17 de julio de 2016

Los excedentes solares (valores negativos en el segundo gráfico) ocurren cuando la energía solar representa más del 18% de la combinación de la red, y estos excedentes tendrían que reducirse o exportarse. Durante estos períodos de excedente, solo se necesita rampa para seguir la curva de demanda (negro), de ahí las rupturas en las parcelas solares del 20% y 30%.

Las tasas de rampa en los bordes de ataque y salida del pico solar alcanzan (al menos) 13 000 MW/h con una penetración solar del 20 % y 19 000 MW/hora con una penetración solar del 30 %. También aumentan significativamente al 10% de penetración solar. Claramente, Francia, si decide expandir la energía solar, tendrá un problema de curva de pato peor que California. Pero Francia todavía tiene un largo camino por recorrer. En la actualidad, solo alrededor del 2% de su electricidad es solar.

De hecho, Francia tiene planes para aumentar sus instalaciones fotovoltaicas, el CEO de EdF acaba de anunciar que quieren instalar 30 GWp a partir de 2020, que generarían el 8% de los 410 TWh que generaron sus 58 reactores en 2015. Agregue a eso más de 10 GW de energía eólica, que a veces podría generar en sincronía con los 30 GWp PV, y el problema del pato se hará evidente.

La curva del pato alemán:

Para Alemania volví a utilizar los datos de PF Bach 2016. La generación solar máxima ocurrió el 21 de agosto. Las gráficas para este día se muestran en la Figura 6.

Figura 6: Generación solar frente a demanda, demanda menos generación solar y tasas de rampa, datos por hora, Alemania, 21 de agosto de 2016

Elegí Alemania como un posible contrapeso a Francia porque la demanda alcanza su punto máximo alrededor del mediodía en lugar de tarde en la noche como ocurre en Francia. El pico de demanda del mediodía de Alemania también coincide con el pico solar, lo que en teoría debería facilitar la adaptación de la energía solar a la demanda.

En la práctica, sin embargo, no funciona de esa manera. La curva de pato de Alemania es más plana que la de Francia, pero no mucho, y debido a que la curva de demanda es ancha, mientras que la curva de generación solar no es alta, las tasas de rampa se desarrollan nuevamente en los bordes delantero y trasero de la «joroba» solar al 20 %. y 30% de penetración solar. También se siguen produciendo excedentes por encima del nivel del 20%. De hecho, los excedentes solares ya son comunes en Alemania, incluso con solo alrededor del 8% de energía solar en la combinación de redes. Alemania tiene suficiente capacidad de seguimiento de carga para equilibrar estos excedentes, pero opta por exportarlos.

Uno de los problemas con la solución de exportación es que el país receptor puede no estar esperando y/o no querer el poder en ese momento.

El exceso de electricidad que genera Alemania se está extendiendo a Polonia y la República Checa, dos países que están invirtiendo cerca de $180 millones para proteger sus redes del derrame de energía de Alemania. [informe 2015]

http://oilprice.com/Alternative-Energy/Renewable-Energy/Germany-Struggles-With-Too-Much-Renewable-Energy.html

En Alemania, hemos obligado a las plantas de energía fotovoltaica más grandes (>30kW) a instalar un interruptor que permite a los operadores de la red desconectarlas en caso de inestabilidad de la red. Pero aún así, la energía solar y eólica produce precios en gran medida negativos en la bolsa de energía. A largo plazo, estoy defendiendo aquí en Alemania que se elimine la prioridad de alimentación para futuras instalaciones y que los propietarios de energía fotovoltaica/eólica tengan que asumir cierta responsabilidad por la estabilidad de la red. Tal regla ciertamente impulsaría los mercados de almacenamiento de energía y ayudaría a superar los enormes desafíos que enfrentamos con niveles crecientes de energía recolectada del medio ambiente.
Hablando en términos más generales, es en lugares muy soleados en particular, como CA, donde unas pocas horas de almacenamiento en cada celda fotovoltaica tendrían un tremendo impacto positivo en la estabilidad de la red. Sin embargo, en Alemania, con su clima nublado y poco confiable, necesitaríamos semanas de almacenamiento, por lo que el almacenamiento nunca será económico aquí dentro de este siglo.

La curva del pato australiano:

Para Australia, utilicé los datos de la cuadrícula de 97 días de 2017 discutidos en la publicación reciente del estudio de los Blakers . El día con la mayor generación solar durante este período (28 de octubre) probablemente no será el más alto de 2017, pero debería ser lo suficientemente alto como para proporcionar resultados indicativos. Las parcelas diarias se muestran en la Figura 6:

Figura 6: Generación solar frente a demanda, demanda menos generación solar y tasas de rampa, datos por hora, Australia, 28 de octubre de 2017

Australia también tiene un problema de curva de pato (tenga en cuenta que todos los diagramas de curva de pato que se muestran arriba pueden parecerse más a un pato al comprimir la escala vertical), pero a diferencia de California, tiene un excedente solar con una penetración solar del 30% (la energía solar actualmente contribuye aproximadamente 3% de la electricidad de Australia). Las tasas de rampa vuelven a aumentar rápidamente con el aumento de la penetración solar en los bordes delantero y trasero del pico solar, pero son similares a las tasas de rampa de California y muy por debajo de las de Francia y Alemania.

La curva del pato de Samoa Americana:

En mi publicación sobre la isla de Ta’u , llegué a la conclusión de que Samoa Americana podría obtener potencialmente el 100 % de su electricidad de la energía solar porque no se necesitan cantidades prohibitivas de almacenamiento para equilibrar los cambios estacionales en la producción solar en esta latitud (14 grados sur). No investigué la cuestión de hacer coincidir la energía solar con la carga diaria, pero acumulé suficientes datos para agregar una curva de pato de baja latitud a esta publicación.

Sin embargo, la curva de pato de Samoa Americana se basa en las curvas de carga más curiosas que he visto (Figura 7, datos de Promoting Energy Efficiency in the Pacific ). No sé qué causa la caída abrupta en la demanda de la temporada de lluvias entre las 7 y las 8 pm, pero lo he ignorado. Si alguna vez hubo un caso para la gestión de la demanda, es este:

Figura 7: Curvas de carga para la isla de Upolu, donde vive la mayoría de los 200.000 habitantes de Samoa Americana. Tenga en cuenta que la escala Y está en kW.

No hay datos de red disponibles para Samoa, por lo que estimé la generación solar diaria aumentando la producción de un solo panel solar («Island Energy – Tool Shop Inc», datos de Sunny Portal ). Los datos de Tool Shop van desde 2011 hasta 2014 y la producción solar máxima se produjo el 12 de febrero de 2013. Dado que febrero es un mes de temporada húmeda, utilizo la segunda curva de carga de la Figura 7 para definir la demanda. Los resultados se muestran en la Figura 8:

Figura 8: Generación solar frente a demanda, demanda menos generación solar y tasas de rampa, datos por hora, Samoa Americana, 12 de febrero de 2013

Probablemente como resultado de su baja latitud, Samoa Americana no muestra ningún aumento en las tasas de rampa al menos hasta un 30% de penetración solar. Sin embargo, como se muestra en la Figura 9, este no es el caso con una penetración solar del 100 %. Las tasas de rampa aumentan significativamente y alrededor del 50% de la generación solar total del día (~160MWh) debe reducirse o almacenarse para su reutilización. No he verificado para ver cómo los excedentes diarios de este tamaño podrían afectar la viabilidad de convertir Samoa a 100% solar, pero ciertamente no ayudarán:

Figura 9: Generación solar frente a demanda, demanda menos generación solar y tasas de rampa, caso 100 % solar, datos por hora, Samoa Americana, 12 de febrero de 2013

Conclusiones:

Los resultados discutidos anteriormente no son lo suficientemente completos como para permitir sacar conclusiones firmes, pero las indicaciones son:

  • Con la posible excepción de las que se encuentran en latitudes ecuatoriales, todas las jurisdicciones del mundo que se comprometan a incluir más de, digamos, un 20 % de energía solar en su combinación de generación futura probablemente alcancen un umbral en el que los requisitos diarios de aumento y almacenamiento/reducción se vuelvan potencialmente inmanejables.
  • El nivel al que se alcanza este umbral variará según las condiciones locales, pero generalmente será más bajo en latitudes más altas que en latitudes más bajas, y podría ser tan bajo como 10% en latitudes altas.
  • Dado que gran parte de la electricidad del mundo se genera y consume en latitudes altas, uno tiene que preguntarse si la energía solar no es más problemática de lo que vale.

.https://euanmearns.com/the-california-duck-curve-isnt-confined-to-california/
.http://euanmearns.com/a-more-detailed-look-at-the-california-grid-data/
.http://euanmearns.com/australia-energy-storage-and-the-blakers-study/
.http://euanmearns.com/solar-power-on-the-island-of-tau-a-preliminary-appraisal/

[Publicado 09/01/2021 . actualizado 09/05/2022]

Archivos Recuperados:

2020.07.29-Alisar la “curva de pato”: la afluencia de vehículos eléctricos acelera la necesidad de planificar la red

TEMASGAMAEnergíaLaboratorio Nacional Del Noroeste Del Pacífico

Por PACIFIC NORTHWEST NATIONAL LABORATORY, 29 DE JULIO DE 2020

La planificación de vehículos eléctricos puede ayudar a las ciudades a evitar grandes inversiones en infraestructura de red en el futuro. Crédito: Mike Perkins, PNNL

Para la confiabilidad de la red, el estudio de PNNL muestra que la planificación anticipada y las estrategias inteligentes de carga de EV podrían ayudar a las ciudades y las empresas de servicios públicos a suavizar la curva del pato y evitar costosas infraestructuras nuevas.

Los vehículos eléctricos están llegando en masa. ¿Cómo pueden prepararse los servicios públicos locales, los planificadores de redes y las ciudades? Esa es la pregunta clave abordada con un nuevo estudio dirigido por investigadores del Laboratorio Nacional del Noroeste del Pacífico para la Oficina de Tecnologías de Vehículos de la Oficina de Eficiencia Energética y Energía Renovable del Departamento de Energía de EE. UU.

«Si bien no sabemos exactamente cuándo ocurrirá el punto de inflexión, las flotas de vehículos de carga rápida cambiarán la forma en que las ciudades y los servicios públicos administran su infraestructura eléctrica», dijo Michael Kintner-Meyer, ingeniero de sistemas eléctricos en el grupo de Infraestructura de Electricidad de PNNL y El autor principal del estudio. «No se trata de si, sino de cuándo».

El estudio, publicado hoy, integra múltiples factores no evaluados antes, como camiones eléctricos para entrega y larga distancia, así como estrategias inteligentes de carga de EV.

Durante la próxima década, los vehículos eléctricos de todos los tamaños se conectarán cada vez más a estaciones de carga en hogares, empresas y en rutas de transporte.

Se acerca la electrificación del transporte

Según EV Hub, alrededor de 1,5 millones de vehículos eléctricos, en su mayoría automóviles y SUV, se encuentran actualmente en la carretera en los Estados Unidos. Los investigadores de PNNL evaluaron la capacidad de la red eléctrica en el oeste de los EE. UU. Durante la próxima década a medida que crecen flotas de vehículos eléctricos de todos los tamaños, incluidos camiones, que se conectan a estaciones de carga en hogares y empresas y en rutas de transporte.

Para su estudio, los autores utilizaron los mejores datos disponibles sobre la capacidad futura de la red del Consejo de Coordinación de Electricidad del Oeste, o WECC. El análisis reveló la carga EV máxima que la red podría soportar sin construir más plantas de energía y líneas de transmisión.

La buena noticia es que hasta 2028, el sistema de energía general, desde la generación hasta la transmisión, se ve saludable hasta 24 millones de vehículos eléctricos, aproximadamente el 9% del tráfico actual de vehículos ligeros en los Estados Unidos.

Sin embargo, a unos 30 millones de vehículos eléctricos, las cosas se ponen difíciles. A nivel local, pueden surgir problemas incluso con números de adopción EV más pequeños. Esto se debe a que un EV de carga rápida puede arrastrar tanta carga como hasta 50 hogares. Si, por ejemplo, cada casa en un callejón sin salida tiene un EV, un transformador de potencia no podrá manejar la carga de múltiples EV al mismo tiempo.

La planificación de vehículos eléctricos puede ayudar a las ciudades a evitar grandes inversiones en infraestructura de red en el futuro. Crédito: Mike Perkins, PNNL

Alisar la curva del pato.

Como se detalla en el informe, la planificación actual de la red no tiene en cuenta adecuadamente una afluencia masiva de vehículos eléctricos. Esa omisión exacerba una situación ya estresante: la temida curva del pato.

La curva de pato es un perfil de carga de 24 horas en el sistema de energía, y generalmente ocurre en áreas con muchas instalaciones fotovoltaicas o solares en la azotea. La curva se basa en una carga moderada en la mañana, una carga baja durante el día cuando las unidades solares alimentan electricidad a la red y una carga alta en la noche cuando las personas llegan a casa del trabajo y se pone el sol.

Cuando la demanda aumenta, el voltaje cae en picado. Este cambio severo es difícil para las operaciones del sistema que no fueron diseñadas para encenderse y apagarse como un interruptor de luz. Y con más vehículos eléctricos conectados para cargar por la noche, la aceleración se vuelve aún más pronunciada y aumenta los costos de electricidad.

Las estrategias de carga inteligente, que evitan la carga durante las horas pico de la mañana y temprano en la noche, pueden suavizar los picos de demanda y completar la curva de pato, según el estudio. El enfoque tiene dos ventajas. Primero, aprovecharía la energía solar relativamente limpia durante el día. También reduciría o eliminaría las rampas agudas en la noche cuando se apaga la energía solar y otras fuentes entran en juego para compensar la diferencia.

Los escenarios plausibles enfatizan la necesidad de planificar

A partir de los datos de WECC, el equipo desarrolló y modeló escenarios plausibles para 2028. Los escenarios fueron examinados con líderes empresariales e incluyeron una mezcla de livianos (pasajeros), medianos (camiones y furgonetas de reparto) y pesados ​​(semifinales y carga) vehículos de servicio en la carretera: la primera vez que se incluyen las tres clases de vehículos en dicho análisis. PNNL también desarrolló un modelo de transporte para carga en carretera, con estaciones de carga en autopistas interestatales cada 50 millas para las tres clases de vehículos.

Los escenarios incluyeron la evolución de la red y su capacidad a nivel estatal y regional. El equipo se centró en escenarios con el mayor potencial de impactos en la red.

Los cuellos de botella debidos a la nueva carga de vehículos eléctricos aparecieron más en áreas de California, incluida Los Ángeles, que planea ir completamente eléctrica con su flota de la ciudad para 2030. La pizca provino del crecimiento de autos de carga rápida y flotas comerciales de camiones eléctricos. Estos vehículos pueden extraer 400 amperios a través de un circuito durante un tiempo de hasta 45 minutos, en lugar de los 15 a 20 amperios que la mayoría de los vehículos eléctricos extraen hoy de 6 a 8 horas.

Dennis Stiles supervisa la cartera de investigación de eficiencia energética y energía renovable de PNNL. Dijo que los vehículos de carga rápida y la integración de cargas móviles, flotas en movimiento, se encuentran entre los mayores desafíos para los planificadores de hoy.

«Nunca tuvieron que pensar en vehículos eléctricos antes, pero algunas ciudades ya están buscando controles inteligentes y otras formas de modificar sus sistemas y operaciones de distribución», dijo Stiles. “La clave es descubrir ahora cómo evitar grandes desembolsos de capital en el futuro. Agregar un nuevo transformador aquí y allá es muy diferente a una revisión de subestación ”.

Adelantarse a la curva

Pero el desafío no se limita a grandes áreas como Los Ángeles. Kintner-Meyer dijo que las ciudades más pequeñas con recursos limitados necesitan ayuda para planificar su infraestructura de carga y su capacidad de alojamiento. Ese es el siguiente paso.

En un estudio de seguimiento, los investigadores analizarán de cerca las formas de integrar los vehículos eléctricos en los sistemas de distribución de energía locales y regionales en todo el país.

«Tenemos los datos y el método para ejecutar escenarios hipotéticos», dijo Kintner-Meyer. «Con los datos de las empresas de servicios públicos sobre alimentadores e infraestructura, podemos construir los modelos y luego entregarlos para que puedan adelantarse a la curva».

###

Se pueden encontrar detalles adicionales sobre el estudio en el informe, «Vehículos eléctricos a escala – Análisis de fase 1: Impactos de adopción de EV altos en la red eléctrica occidental de EE. UU.», Escrito por Kintner-Meyer y sus colegas de PNNL Sarah Davis, Dhruv Bhatnagar, Sid Sridhar, Malini Ghosal y Shant Mahserejian.

El Laboratorio Nacional del Noroeste del Pacífico se basa en capacidades distintivas en química, ciencias de la Tierra y análisis de datos para avanzar en el descubrimiento científico y crear soluciones a los desafíos más difíciles de la nación en materia de resistencia energética y seguridad nacional. Fundada en 1965, PNNL es operado por Battelle para la Oficina de Ciencia del Departamento de Energía de los Estados Unidos. La Oficina de Ciencia del DOE es el mayor defensor de la investigación básica en ciencias físicas en los Estados Unidos y está trabajando para abordar algunos de los desafíos más apremiantes de nuestro tiempo. Para obtener más información, visite el Centro de noticias de PNNL. Síguenos en Facebook, Instagram, LinkedIn y Twitter.

Resumen: Un nuevo informe de PNNL dice que el sistema de energía del oeste de los EE. UU. Puede manejar la electrificación de vehículos a gran escala hasta 24 millones de vehículos hasta 2028, pero más que eso y las ciudades podrían comenzar a sentir la presión.

.https://scitechdaily.com/smoothing-out-the-duck-curve-influx-of-electric-vehicles-accelerates-need-for-grid-planning

Vinculos

Sincronización en una red eléctrica descentralizada

Inteligencia artificial utilizada para sobrecargar el desarrollo de baterías para vehículos eléctricos

La pila de combustible de óxido sólido pequeña desarrollada por PNNL logra un 57 por ciento de eficiencia

Son posibles mejores baterías de iones de litio con una vista molecular a nanoescala de la estructura autoensamblable

Los vehículos autónomos son una realidad hoy en día con el sistema autónomo de Optimus Ride

Cause of Harmful Dendrites and Whiskers in Lithium Batteries Uncovered [Video]

Breakthrough Enables Full Recharge of an Electric Vehicle in 10-Minutes

Using Light to Recharge Lithium-Ion Batteries Twice As Fast

BE THE FIRST TO COMMENT

SciTechDaily: Home of the best science and technology news since 1998. Keep up with the latest scitech news via email or social media.

POPULAR ARTICLES

JULY 27, 2020

Unknown Explanation? Perplexing Discovery Could Rewrite Earth’s History

New Material Can Generate Hydrogen From Fresh, Salt, or Polluted Water by Exposure to Sunlight

Genetic Comparison of 24 Coronaviruses – Including SARS-CoV-2 Viruses From the U.S. and China – Yields Clues to COVID-19 Treatments

Do Face Coverings Lead to False Sense of Security From COVID-19? Here’s the Latest Research

Astrophysicists Construct Most Complete 3D Map of the Universe, Fill Gaps in Cosmological History

SCITECH NEWS

Biology News

Chemistry News

Earth News

Health News

Physics News

Science News

Space News

Technology News

LATEST NEWS

«El último de su clase»: antiguo cúmulo globular destrozado por la gravedad de la Vía Láctea hace 2 mil millones de años

 

Autos eléctricos


Emisiones Efecto Invernadero

Autos eléctricos

Sobre la energía fotovoltaica: Para viviendas hay dos tipos, la aislada que se integra con baterías para operar en la noche y la conectada a red, que no usa baterías y entrega a la red la energía excedente que se produce, pero solo en el dia porque en la noche la vivienda debe consumir la energía que entrega la red. Lo mas costoso del sistema con fotoceldas son en el caso aislado el cargador de las baterías que son del tipo MPPT (Seguimiento del Punto de Máxima Potencia, aunque se puede usar los convencionales pero no se optimiza el uso del panel solar) y mas aun las baterías porque deben ser de descarga profunda, tanto en la inversión inicial como en el mantenimiento porque debes reemplazarlas periódicamente, tal cual los casos de sistemas de UPS. Ahora los paneles según el dimensionamiento de consumo y tecnología de los paneles son relativamente económicos, (caso conectado a red). El sistema aislado si puede llagar a costar los 12mil euros, pero como dije depende los consumos. Otro punto, es como influye la masificación de esta tendencia, tanto el uso de los vehículos eléctricos como de los paneles solares en un principio comenzaron a generar problemas a los proveedores de energía eléctrica porque generaban un efecto que se llama «curva del pato» (por la forma de la curva del perfil de carga durante un dia) : durante el dia los consumos de la red son mínimos: la viviendas con paneles conectadas a red, no consumían de la red externa y los vehículos eléctricos estaban en uso tampoco; ahora en la noche el consumo se disparaba por las viviendas y los vehículos cargando ahora el sistema colapsaba puesto que no estaba preparado para trabajar como un «interruptor», eso llevo a que en algunos casos, digamos argentina y espana han impuesto multas a las viviendas con paneles conectados a la red. Eso se debe compensando con la actualización de los sistemas eléctricos, incluyendo sistemas de almacenamiento (ejemplo represas) a la vez que se han añadiendo otros sistemas de generación como las eólicas que aunque no son constantes si son predecibles.

Autos eléctricos
Si se tiene un Testa hay que Llevar su auto a un agente oficial Tesla y dejarlo casi un mes para que revisen los problemas que presenta. Si hay que reemplazar la batería, y se ha perdido la garantía hay que desembolsar unos 22.600 Euros para hacerlo.

2011- . En los planes está reducir a la mitad los vehículos a gasolina y diesel en ciudad para 2030, y terminar por prohibirlos completamente en 2050

ARCHIVOS RECUPERADOS:

Autos eléctricos. 1
2011.03.29-Europa quiere ciudades sin humo para 2050. 2
Ciudades sin humo y sin accidentes. 3
2011.05.28-MEMO Transporte 2050: principales desafíos y medidas clave. 3
2016.07.10-¿Qué pasará en Oriente Próximo cuando no necesitemos tanto petróleo?. 9
¿Hasta cuándo crecerá la demanda de petróleo?. 11
     Reducir las emisiones a la atmósfera nos lleva a cambiar de fuentes de energía. 12
Los coches eléctricos se pueden alimentar con energías renovables y generan menos emisiones  13
     Con baterías de más autonomía y más baratas, la situación puede animarse mucho. 14
     ¿Y si al final necesitamos menos petróleo?. 15
     ¿Y si al tener menos interés en el petróleo se pacificaran algunos territorios?. 16
2018.11.28-El fin de la era de los combustibles fósiles ya tiene fecha: año 2050, según la Comisión Europea. 28 Noviembre 2018. 18
     Reducir emisiones sin renunciar al crecimiento. 19
2018.11.29-Bruselas fija el fin de la era de los combustibles fósiles en Europa en 2050. 20
     Más ambicioso. 21
     Muertes prematuras. 23
2020.05.20-En 2023 prohibirán los coches de combustión en las ciudades. 24
     No te asustes con la prohibición a los coches que entrará en vigor en 2023. 24
     El Gobierno declara el estado de Emergencia Climática. 25
2021.06.27-Volver al futuro: las curiosidades detrás del auto a hidrógeno que un físico argentino hizo funcionar en 1996  26
2021.10.15-La Comisión Europea propone prohibir la fabricación de autos de combustión interna desde 2035  32

==========================

2011.03.29-Europa quiere ciudades sin humo para 2050.

-(Ir atrás)

29 Marzo 2011Actualizado 18 Mayo 2011, 02:00

.https://www.motorpasion.com/coches-hibridos-alternativos/europa2050

La Unión Europea no quiere coches que contaminen sus ciudades, y si por el camino minimiza su dependencia del petróleo, mejor que mejor. Ciudades como Amsterdam ya han declarado que se adelantaran al plazo previsto, la idea es potenciar el transporte limpio y las alternativas no contaminantes, como la bicicleta o el paseo de toda la vida.

Este lunes la Comisión Europea ha aprobado una hoja de ruta de 40 puntos, que ha denominado Transporte 2050, en la que también pretenden reducir las emisiones del transporte aéreo y potenciar los desplazamientos marítimos y fluviales entre ciudades.

Para los vehículos urbanos, particulares y públicos, el trayecto a seguir a corto y medio plazo sería la hibridación, para progresivamente electrificar la flota completamente a mediados de siglo. En los planes está reducir a la mitad los vehículos a gasolina y diesel en ciudad para 2030, y terminar por prohibirlos completamente en 2050.

Ciudades sin humo y sin accidentes

También esperan reducir casi a cero los valores de siniestralidad en ciudad, conseguir esto es bastante mas discutible. Esta claro que un vehículo guiado por humanos, aun siendo eléctrico, sigue siendo un peligro potencial para peatones, ciclistas, y para los demás vehículos. Si la solución pasa por masificar el transporte publico en detrimento del particular, ya no lo veo tan probable. La conducción automática, o al menos los sistemas de ayuda a la conducción pueden tener un papel determinante en el éxito de la iniciativa.

El objetivo primario de la hoja de ruta es reducir un 60% las emisiones de CO2 en ciudad, donde se realiza el mayor porcentaje del transporte por carretera, potenciando además en lo posible el servicio de transporte público en las grandes urbes, así como el ferrocarril para recorridos interurbanos.

Naturalmente no todos fabricantes están por la labor. Ford ya ha mostrado su desacuerdo, y seguro que no pocos fabricantes le siguen. Otros estarán encantados de aprovechar la iniciativa y las mas que probables ayudas para potenciar las ventas de su catálogo eléctrico

Seguramente en veinte años la mayor parte de los vehículos urbanos ya serán eléctricos y todo el proceso se desarrollará de forma natural, pero visto desde la distancia todavía nos parece algo utópico. La lucha contra el humo comenzó por el tabaco, quien sabe, quizás nos veamos en pocos años saliendo a pasear en pleno centro para respirar un poco de aire fresco.

Via | Autoblog Fotografía | PhotoRack Fuente | nu.nl (en holandés)

==========================

2011.05.28-MEMO Transporte 2050: principales desafíos y medidas clave –

-(Ir atrás)

Transport 2050: The major challenges, the key measures [MEMO/11/197, 28/03/2011] Search for available translations of the preceding link

MEMO/11/197

Bruselas, 28 de marzo de 2011

MEMO Transporte 2050: principales desafíos y medidas clave

Razones de su importancia

El transporte es fundamental para nuestra economía y sociedad. La movilidad es esencial para el crecimiento y la creación de empleo. El sector de los transportes da trabajo directamente a unos diez millones de personas y representa aproximadamente el 5 % del producto interior bruto (PIB). Unos sistemas de transporte eficaces son cruciales para que las empresas europeas sean capaces de competir en la economía mundial. La logística, que abarca, por ejemplo, el transporte y el almacenamiento, representa entre el 10 % y el 15 % del coste de un producto acabado para las empresas europeas. La calidad de los servicios de transporte repercute en gran medida en la calidad de vida de las personas. El 13,2 % del presupuesto de cada hogar se gasta en bienes y servicios de transporte.

Principales desafíos

La movilidad va a aumentar, pero el transporte europeo se encuentra en una encrucijada. Nuestro sistema de transporte se enfrenta a grandes dificultades:

  • El petróleo escaseará en las próximas décadas y se extrae cada vez más de regiones inestables del mundo. Se pronostica que los precios del petróleo aumenten más del doble entre 2005 y 2050 (59 dólares/barril en 2005). Los acontecimientos actuales demuestran la volatilidad extrema de los precios del petróleo.
  • El transporte es ahora más eficiente desde el punto de vista energético, pero todavía depende del petróleo en el 96 % para cubrir sus necesidades de energía.
  • La congestión cuesta a Europa alrededor del 1 % del producto interior bruto (PIB) cada año.
  • Es necesario reducir las emisiones de gases de efecto invernadero en el mundo, con el objetivo de limitar el cambio climático a 2º C. Globalmente, para 2050, la UE tiene que reducir las emisiones en un 80-95 % por debajo de los niveles de 1990 para alcanzar ese objetivo.
  • La congestión, tanto en la carretera como en el cielo, suscita honda preocupación. Se prevé que las actividades de transporte de mercancías aumenten, respecto a 2005, en torno al 40 % en 2030 y en algo más del 80 % para 2050. El transporte de pasajeros se incrementaría algo menos que el de mercancías: el 34 % para 2030 y el 51 % para 2050.
  • La infraestructura no tiene el mismo nivel en las regiones orientales y occidentales de la UE. En los nuevos Estados miembros, solo hay unos 4 800 km de autopistas y ninguna línea de alta velocidad construida al efecto; las líneas ferroviarias convencionales suelen estar en malas condiciones.
  • El sector de los transportes de la UE se enfrenta a una competencia creciente de los mercados mundiales de transporte, que se están desarrollando con rapidez.

Un panorama general de las principales estadísticas del transporte puede consultarse en: Transporte 2050: 50 hechos y cifras.

Transporte 2050: principales medidas

La estrategia contemplada en la hoja de ruta Transporte 2050 «Hacia un espacio único de transporte» persigue introducir cambios estructurales profundos para transformar el sector de los transportes. Se realizará en los próximos años (2011-2014) y sus medidas principales son las siguientes:

  • Una amplia reforma de la normativa sobre el ferrocarril (paquete ferroviario 2012/2013). Un elemento central del plan de trabajo Transporte 2050 es la necesidad de transformar el sector ferroviario para que sea más atractivo y consiga aumentar de forma muy considerable su cuota de mercado en el transporte de media distancia (>300 km) de mercancías y pasajeros para 2050. Al mismo tiempo, se trata de triplicar la longitud de la red actual de alta velocidad para 2030. Todo esto exigirá importantes cambios en la normativa ferroviaria, incluida la apertura del mercado de los servicios nacionales de pasajeros, la introducción de estructuras sencillas de gestión en los corredores de transporte ferroviario de mercancías, la separación estructural entre los gestores de la infraestructura y los proveedores de servicios y mejoras del entorno reglamentario para que el sector ferroviario atraiga más inversiones del sector privado. La Comisión presentará una serie ambiciosa de iniciativas legislativas para el sector ferroviario en 2012-2013.
  • Una red básica de infraestructura estratégica es esencial para la creación de un verdadero espacio único europeo de transporte. La Comisión presentará nuevas propuestas sobre una red multimodal europea básica en 2011 (publicaciones de directrices de la red transeuropea de transporte [RTE-T], mapas y propuestas de financiación). La UE proporcionará financiación mediante un marco único para usar el dinero de las RTE-T y los Fondos Estructurales y de Cohesión de forma coherente. La condicionalidad de la financiación garantizará que se haga hincapié en las prioridades de la UE, así como la adopción de nuevas tecnologías (estaciones de recarga/reabastecimiento para nuevos vehículos, nueva tecnología de gestión del tráfico).
  • Para crear un sistema de transporte multimodal completamente funcional hace falta eliminar cuellos de botella y barreras en otras partes fundamentales de la red, sobre todo mediante un paquete aeroportuario, para mejorar la eficiencia y capacidad de los aeropuertos (2011); una Comunicación sobre el transporte por vías navegables (2011), para eliminar las barreras y mejorar la eficiencia de las vías navegables, y la iniciativa sobre el programa marítimo electrónico (2011), para un transporte marítimo inteligente y sin papeleo, al efecto de crear una verdadera zona de «cinturón azul» de transporte marítimo sin barreras. La Comisión también se esforzará por eliminar los obstáculos al cabotaje por carretera (2012-2013).
  • Creación de un entorno financiero equitativo: nuevo planteamiento sobre las tarifas de transporte. Las tarifas de transporte deben reestructurarse hacia una aplicación más amplia de los principios de quien contamina, paga, y de que el usuario paga. Se adoptarán, entre otras, las medidas fundamentales siguientes para los próximos años:
  • Publicación de directrices para la aplicación de tasas por el uso de la infraestructura para los vehículos de turismo (2012). En una segunda etapa, se presentará una propuesta que establezca la normativa para la internalización de los costes aplicable a todos los vehículos de carretera (excepto los cubiertos por la euroviñeta) para sufragar los costes de la infraestructura y los costes sociales de la congestión, CO2 (si no se incluyen en los impuestos sobre carburantes), contaminación local, ruido y accidentes. Los Estados miembros serán libres de aplicar esas tarifas, pero los que decidan seguir adelante lo podrán hacer dentro de un marco común de la UE.
  • Avance en la internalización de los costes externos en otros modos de transporte.
  • Garantía de una financiación estable para el transporte, aplicando el principio de reserva de los ingresos procedentes de los usuarios del transporte para el fomento de una red eficiente e integrada (en otras palabras, un porcentaje de las tarifas del transporte cobradas deben reinvertirse en los transportes para aportar la financiación necesaria para poder tener una infraestructura de transporte de alta calidad).
  • Autorización gradual de sistemas de peaje electrónico europeos; por ejemplo, habrá un servicio europeo de telepeaje desde octubre de 2012 para los camiones y, dos años más tarde, para toda clase de vehículos, de forma que los camioneros puedan pagar electrónicamente los distintos peajes de las autopistas a través de un único proveedor para toda Europa, el cual podría sustituir a los sistemas muy diversos que se usan actualmente en los 21 Estados miembros que cobran peajes. El principio es el mismo que en la telefonía móvil: la tarifa es para los operadores o autoridades nacionales con independencia de donde se encuentre el usuario en Europa. Y el peaje electrónico facilita que las tarifas puedan ajustarse a condiciones variables (horas punta, vehículos más contaminantes).
  • Plan estratégico sobre tecnología del transporte de la UE (2011). La investigación y el despliegue efectivo de nuevas tecnologías serán claves para unas menores emisiones tanto en la UE como en el resto del mundo en el caso del transporte urbano, interurbano y de larga distancia. En 2011, el Plan Estratégico sobre Tecnología del Transporte (PETT) será una iniciativa importante para reagrupar y reorientar los esfuerzos de investigación e innovación sobre el transporte en Europa.
  • Se dará prioridad a la producción de vehículos limpios, seguros y silenciosos para todos los modos de transporte, desde vehículos de carretera hasta buques, barcazas, material rodante y aeronaves. Los temas principales serán, entre otros, los nuevos combustibles, los nuevos materiales, los nuevos sistemas de propulsión y las herramientas de TI y de gestión del tráfico para gestionar e integrar sistemas de transporte complejos. El PETT establecerá dónde deseamos invertir el dinero de la investigación, cuál debe ser la estrategia de despliegue para incentivar y garantizar la adopción de nuevas tecnológicas por el mercado y cómo formular las normas de la UE necesarias para velar por que esa adopción sea coherente en toda Europa.
  • En el marco del PETT global, la Comisión publicará una estrategia sobre un sistema de transporte limpio en 2012 con más pormenores sobre medidas concretas dirigidas a incentivar y facilitar la introducción de vehículos limpios y la formulación de normas en materia de despliegue de vehículos limpios válidas en toda la UE, por ejemplo, normas sobre la interoperabilidad de la infraestructura de tarificación y directrices y normas sobre la infraestructura de recarga/reabastecimiento de combustible.
  • Una estrategia dividida en tres partes sobre el transporte en las ciudades. Un aspecto fundamental de la estrategia Transporte 2050 es avanzar hacia el objetivo de eliminar gradualmente los vehículos que usan combustibles convencionales en las ciudades para 2050, los cuales serían sustituidos en las ciudades por vehículos eléctricos, vehículos con motor de hidrógeno, vehículos híbridos, así como por el transporte público y el transporte a pie y en bicicleta. Gran parte de la responsabilidad en materia de transporte en las ciudades recae en los Estados miembros, y cada ciudad decidirá su combinación de transportes en su zona. No obstante para facilitar el paso a un transporte más limpio, la Comisión adoptará las medidas siguientes:
  • Introducción de procedimientos y de asistencia financiera para las auditorías de la movilidad urbana y los planes de movilidad urbana, con carácter voluntario. Estudio de las posibilidades de vincular los fondos regionales y de cohesión a las ciudades y regiones que hayan presentado planes de movilidad urbana.
  • La Comisión presentará propuestas relacionadas con una normativa de la UE en materia de tarificación del uso de las vías urbanas y regímenes de restricción del acceso para el número creciente de Estados miembros que desea recurrir a esos regímenes de tarificación para paliar la congestión y modificar los patrones de transporte en las ciudades, con lo que se garantizará que los diversos regímenes se ajusten a una normativa coherente válida para toda la UE y que no sean discriminatorios.
  • En lo que se refiere a las soluciones tecnológicas para unos vehículos limpios, las ciudades no pueden actuar solas. A este respecto, la UE se centrará en los esfuerzos de investigación, introducirá estrategias de despliegue para toda la UE, así como las condiciones de mercado adecuadas, para facilitar la adopción de nuevos vehículos más limpios en las ciudades: la transición hacia unos vehículos de turismo más limpios es una de las principales prioridades del Plan Estratégico sobre Tecnología del Transporte (2011).
  • En el caso de los modos de transporte de larga distancia, en que seguirán dominando el transporte aéreo y el marítimo, se hará hincapié en aumentar la competitividad y en reducir las emisiones mediante las medidas siguientes:
  • Una modernización completa del sistema europeo de control del tráfico aéreo para 2020 (SESAR1), cuyo resultado sea el Cielo Único Europeo, con vuelos más breves y seguros y mayor capacidad. En una primera etapa, se están creando bloques de espacio aéreo funcional para finales de 2011 gracias a la cooperación entre los Estados miembros. El Cielo Único hará por sí solo que se reduzca el tiempo de los vuelos en un 10 %, con un uso de combustible y unas emisiones mucho menores.
  • Unas mejoras de la gestión del tráfico similares son cruciales para conseguir una mejora global de la eficiencia y unas emisiones más bajas en todos los modos, lo que supone el despliegue de sistemas avanzados de gestión del transporte terrestre, marítimo y por vías navegables (ERTMS, ITS, RIS, Safeseanet y LRIT2).
  • Otras medidas fundamentales en el sector del transporte aéreo y marítimo serán las siguientes: introducción de motores más limpios, diseño y adopción de combustibles sostenibles (véase el PETT), finalización de la Zona Europea Común de Aviación con 58 países y 1 000 millones de habitantes para 2020 y cooperación con los socios internacionales y con organizaciones internacionales como la OACI (Organización de Aviación Civil Internacional) y la OMI (Organización Marítima Internacional) para fomentar la competitividad europea y los objetivos en materia de clima a escala mundial.
  • En el transporte marítimo concretamente, el objetivo de reducir las emisiones procedentes de los combustibles para uso marítimo en un 40 % como mínimo se puede alcanzar gracias a medidas operativas y medidas técnicas, entre las que se cuentan un nuevo diseño de los buques y combustibles bajos en carbono. Teniendo en cuenta el carácter mundial del transporte marítimo, esas medidas deben elaborarse en el contexto internacional de la OMI para que sean eficaces.
  • Un gran impulso de la programación multimodal de los viajes y billetes integrados. El espacio único europeo de transporte depende de unos sistemas paneuropeos eficaces e interoperables de programación multimodal de los viajes y de billetes integrados.
  • A corto plazo, habrá un gran impulso para avanzar en lo relativo a las medidas necesarias para facilitar la programación multimodal de los viajes, empezando por las normas cruciales necesarias para facilitar la programación de los viajes por ferrocarril en toda la UE (2012), así como las medidas legislativas necesarias para velar por que los proveedores de servicios puedan tener acceso a la información sobre viajes y tráfico en tiempo real.

Unos servicios de transporte de alta calidad dependen de la consolidación y el refuerzo de la legislación sobre los derechos de los pasajeros en todos los modos de transporte. Tras la finalización de la normativa en materia de derechos de los pasajeros en todos los modos, la Comisión publicará informes sobre la aplicación de esos derechos y presentará más adelante este año directrices sobre la interpretación común de los derechos de los pasajeros en todos los modos.

La lista precedente no es exhaustiva y tiene por objeto hacer hincapié en algunas de las medidas clave que se harán avanzar en el período comprendido entre 2011 y 2014 para introducir los grandes cambios estructurales necesarios a fin de crear un espacio único europeo de transporte.

La lista completa de medidas previstas en el programa de trabajo Transporte 2050 en cuarenta ámbitos del transporte por carretera, ferroviario, aéreo, marítimo y por vías navegables, se puede consultar en http://ec.europa.eu/transport/index_en.htm.

1 :Investigación sobre la gestión del tráfico aéreo en el contexto del Cielo Único Europeo, véase http://ec.europa.eu/transport/air/sesar/sesar_en.htm.

2 :»European Rail Traffic Management System» (Sistema de Gestión del Tráfico Ferroviario Europeo), «Intelligent Transport Systems» (sistemas de transporte inteligente por carretera), «River Information Services» (Servicios de Información Fluvial), los sistemas de información marítima de la UE «SafeSeaNet» y «Long Range Identification and Tracking of Vessels».

.https://ec.europa.eu/commission/presscorner/detail/en/MEMO_11_197

2016.07.10-¿Qué pasará en Oriente Próximo cuando no necesitemos tanto petróleo?

-(Ir atrás)

23 Agosto 2016Actualizado 10 Julio 2017, 05:17

.https://www.motorpasion.com/coches-hibridos-alternativos/europa2050

Ibáñez @P_Ibanez_

Hablar acerca del petróleo es bastante complejo. Puesto que el petróleo es un recurso natural de origen fósil que se encuentra almacenado en la tierra, sabemos por pura lógica que la cantidad de la que podemos disponer es finita. Y puesto que es finito, en algún momento llegará el peak oil, o cénit de producción del petróleo, eso si no ha llegado ya.

Es difícil estimar la cantidad de petróleo que hay, sobre todo al tener que considerar y diferenciar entre recursos, todo lo que hay almacenado en la tierra, y reservas, la cantidad que podría ser teóricamente extraíble y utilizable, a la vez que se intentan encontrar nuevos yacimientos.

Curva de producción del petróleo sugerida por Hubbert, de la cual deriva el concepto de ‘peak oil’ o cénit del petróleo

Igualmente difícil resulta hablar de cuándo podría agotarse el petróleo, si es que alguna vez se agota. Porque lo que suele suceder es que cuando se demanda mucho un producto, o este resulta cada vez más costoso de producir, su precio suele ir subiendo, hasta tal punto que llega a ser demasiado caro y se convierte en un producto de lujo, disminuyendo entonces su demanda porque ya no se lo puede permitir tanta gente.

Esto además es un arma de doble filo. Con precios bajos del petróleo este se demanda mucho, pero se reduce la inversión para buscar nuevos yacimientos. Y a la inversa, con precios muy altos del petróleo se pueden convertir ciertos yacimientos en económicamente rentables, pero al final la demanda baja porque no hay quien lo pague.

El precio del petróleo actualmente es bastante bajo, entre 40 y 45 dólares el barril, llegando a mínimos a principios de año, alrededor de los 25 dólares el barril. Con precios así somos felices y la economía no se frena pues dispone de energía barata, sin embargo el precio del petróleo no se mantiene siempre bajo: no debemos olvidar que en 2008 el petróleo llegó a superar los 147 dólares el barril, y entonces ni éramos tan felices, ni ayudó a una economía al borde del precipio.

Estimación del consumo de energía total mundial por regiones

¿Hasta cuándo crecerá la demanda de petróleo?

Lo que sí puede suceder, aunque también es muy difícil de estimar, es que cambie la demanda de petróleo, porque, tal y como parece evolucionar el automóvil, es probable que dentro de varias décadas utilicemos otras fuentes de energía para la propulsión, como por ejemplo la electricidad, y entonces el automóvil ya no dependerá del petróleo.

La población mundial ha superado ya los 7.000 millones. Algunas estimaciones hablan de que en 2050 la población mundial crecerá hasta los 9.600 millones de personas. A priori, más población mundial implica un mayor consumo de recursos, y entre ellos también más energía, sobre todo cuanto más progreso e industrialización se dé en los países con mayor población, en vías de desarrollo.

BP, la tercera mayor compañía del mundo dedicada al petróleo, estima que para dentro de unos 20 años, crecerá un 34 % la demanda mundial de energía en el año 2035 con respecto a 2014, pero poco a poco cada vez menos. Según BP, los combustibles fósiles seguirán siendo la principal fuente de energía mundial, cubriendo alrededor del 80 % del consumo total de energía.

Mix de fuentes de energía en el consumo total de energía a nivel mundial estimado para 2035

Reducir las emisiones a la atmósfera nos lleva a cambiar de fuentes de energía

Sin entrar a discutir sobre la cantidad de petróleo disponible, la propia Agencia Internacional de la Energía reconoce la cada vez mayor preocupación de los países por intentar contener las emisiones de gases de efecto invernadero. Esto se tiene que intentar cuadrar con la estimada mayor demanda de energía, por lo que, tanto la Agencia como BP, consideran que el camino será la mejora de la eficiencia energética y el crecimiento de las fuentes de energía renovables.

De hecho que crezcan las energías renovables no es un imposible como algunos creen. Primero porque en el fondo no necesitamos el petróleo para disponer de energía, ya que la podemos obtener sobradamente de otras fuentes.

Segundo porque algunas fuentes de energía renovables como la eólica terrestre ya son muy competitivas económicamente hablando, tanto como para que generar electricidad con ellas sea más barato que con combustibles fósiles como el carbón o el gas natural, e incluso en algunos casos, como por ejemplo sucede en Alemania, sea la forma más barata de producir electricidad.

Ventas de vehículos eléctricos (incluidos también híbridos enchufables) hasta 2015

Los coches eléctricos se pueden alimentar con energías renovables y generan menos emisiones

El sector del automóvil, impulsado por las cada vez más restrictivas leyes anticontaminación, avanza hacia vehículos con menor consumo de combustible, vehículos alternativos adaptados para utilizar biocarburantes o gas, o vehículos impulsados por fuentes de energía no dependientes del petróleo, como la electricidad, ya sea con coches eléctricos, con coches híbridos enchufables o con coches eléctricos de pila de combustible de hidrógeno, siendo los coches eléctricos los que generan menos emisiones a nivel global.

A nivel mundial, del consumo total de petróleo, aproximadamente un 65 % se debe al sector del transporte. Por lo tanto, en un escenario a largo plazo, a medida que la implantación de vehículos con menor consumo o movidos por otras energías, principalmente electricidad, fuera cada vez mayor, esto debería llevar a una paulatina, aunque probablemente muy lenta, reducción de la demanda de petróleo.

La contaminación del aire en China se ha convertido en un problema muy grave. Los automóviles son uno de los principales causantes.

Según la Agencia Internacional de la Energía, parece que esto se producirá primero en los países de la OCDE (que agrupa a 34 países, básicamente toda Europa, Norteamérica, Japón y Australia).

China, con más de 1.350 millones de población, e India, con más de 1.250 millones, seguirán demandando petróleo, porque ahora mismo necesitan mucha energía para seguir creciendo, pero no lo podrán hacer indefinidamente ni de cualquier manera. Acuciados por ejemplo como está China por una contaminación del aire aguda y exagerada, poco después que los países de la OCDE, también tendrán que dar pasos acelerados para utilizar otras fuentes de energía de menores emisiones, también en el transporte.

Es más, ya están dando los primeros pasos: China quiere más coches eléctricos, planea instalar en los próximos años millones de puntos de recarga, y para incentivar sus ventas les libra de pagar impuestos.

La evolución de las baterías para vehículos eléctricos acompañará al crecimiento y expansión de estos

Con baterías de más autonomía y más baratas, la situación puede animarse mucho

Es difícil estimar cuánto puede llegar a ser la reducción del consumo de petróleo al ir cambiando los automóviles, y más difícil aún cuándo llegará. Por ejemplo en EEUU se estima que los coches eléctricos reducirán el consumo de gasolina un 5%, como mínimo, en 20 años. En China debería suceder algo similar, pues según la AIE, en 2015 ya se han vendido más automóviles eléctricos que en EEUU, y el potencial de crecimiento es mayor.

Ya hay más de 1,2 millones de vehículos eléctricos en el mundo, llegando apenas a ser el 0,1 % del total, pero esto debería cambiar mucho. Según estima la AIE (y otros, como algunos fabricantes de automóviles, nos consta), el crecimiento del número de automóviles eléctricos debería producirse de manera exponencial.

Puede ayudar mucho a esto otros avances tecnológicos interesantes: la densidad energética de las baterías para vehículos eléctricos ha mejorado notablemente en los últimos años, y aún se espera cierto margen de mejora más, a la vez que el precio ha ido bajando. Con coches eléctricos con más autonomía y más baratos, el cambio a esas otras fuentes de energía en detrimento del petróleo podría acelerarse.

Como cualquier estimación, hay que considerarla con mucha prudencia, pues nadie tiene una bola de cristal con la que ver el futuro. Aquí vemos cómo podría crecer el número de vehículos eléctricos a nivel mundial en los próximos 15 años

¿Y si al final necesitamos menos petróleo?

Puede que tarde décadas en llegar, pero es posible que poco a poco necesitemos menos petróleo. ¿Qué pasará entonces en Oriente Próximo cuando no lo necesitemos tanto como ahora? ¿Hay ya algún signo de lo que puede suceder?

Pues aunque parezca mentira, sí. Arabia Saudita (o Saudí) es el segundo productor mundial de petróleo. Y además alrededor del 72 % de los ingresos de Arabia Saudita provienen del petróleo. Esto ha permitido a este país de Oriente Próximo un gran desarrollo económico desde la segunda mitad del siglo XX.

Sin embargo en Arabia Saudita ya no hay tanto dinero como antes, debido a los precios bajos del petróleo: una muestra es que se ha tenido que subir el precio de la gasolina un 50 %, aunque sigue siendo mucho más barato que Europa, y el Estado valora la posibilidad de aumentar los impuestos y reducir otras subvenciones a sus ciudadanos.

Cuando no toque vender petróleo… pues nos venderán electricidad

Entre otras medidas que está tomando Arabia Saudita está reducir el consumo interno de petróleo, que viene a suponer la cuarta parte del total de petróleo que produce el país. Para ello se ha decidido apostar por las energías renovables, con un plan estratégico de transición energética a largo plazo, y apostando especialmente por la energía solar, para así poder exportar más barriles de petróleo, la fuente principal de ingresos del país.

Por si acaso parece que ya se están preparando para cuando en el futuro ya no vayan a vendernos tanto petróleo. Es más, con movimientos como este, o con proyectos del estilo de Desertec, es probable que al final se cambien los pozos y bombas de petróleo por paneles solares, y nos vendan electricidad renovable procedente de energía solar, con la que seguir alimentando nuestros automóviles. Quizás dentro de unas décadas suceda lo que sueña este spot, y nos olvidemos de las gasolineras.

Si uno de los mayores productores de petróleo del mundo ya empieza a buscar alternativas y prepararse para el futuro, no deberíamos extrañarnos de que otros productores más pequeños lleven años mirando más allá del oro negro. Este es el caso de Emiratos Árabes Unidos, y como ejemplo cabe citar a uno de los siete emiratos, el de Dubái.

A partir de los años 60 gracias al petróleo el país experimentó importantes cambios económicos. Pero a la vista de que la porción del pastel del que puede disfrutar es más bien pequeña en comparación con otros grandes productores, y con la mente puesta más allá, Dubái ha progresado y evolucionado con una economía diversificada para el futuro.

Así en Dubái ya son más importantes que el petróleo otras actividades económicas como el comercio, las finanzas, la construcción, el transporte y el turismo. Sirvan como muestras el gran aeropuerto internacional de Dubái y la compañía aérea Emirates, los hitos arquitectónicos como la torre Burj Khalifa, el edificio más alto del mundo con 828 m, la pista de esquí cubierta más grande el mundo, los hoteles de superlujo junto al mar, los puertos para yates de lujo o los centros comerciales con las firmas más lujosas, entre otras cosas.

¿Y si al tener menos interés en el petróleo se pacificaran algunos territorios?

Hay un tema todavía más complejo: el referente a todo lo relativo a la geopolítica del petróleo. Con la gran dependencia que tienen los países desarrollados del petróleo, y teniendo en cuenta su precio y su finitud, a lo largo de las décadas se han producido diferentes guerras y conflictos para intentar controlar la producción de petróleo, su suministro y su transporte.

Irán e Irak son el sexto y el séptimo productores de petróleo del mundo respectivamente, y juntos se colocan en cuarta posición. Desde los años 80 tres guerras se han desarrollado en estos territorios del Golfo Pérsico, motivadas por unas u otras causas (políticas, religiosas, etc), pero sin olvidar que el petróleo también estaba presente, directa o indirectamente.

La primera guerra entre Irán e Irak data de 1980 y duró ocho años, la segunda se produjo en 1991, cuando Irak invadió Kuwait, y fuerzas internacionales, con mayor protagonismo de EEUU, liberaron Kuwait. La tercera guerra, en 2003, argumentando la posesión de armas de destrucción masiva, cuando EEUU y otros países invadieron Irak.

«Reparto» de las «áreas de influencia» de Francia y Reino Unido en el Golfo Persico tras la Primera Guerra mundial

los conflictos en la zona del Golfo Pérsico, y concretamente todo lo que viene a ser Oriente Medio no vienen desde que el petróleo comenzó a ser importante…no no, vienen de mucho más atrás, y no sólo ha sido por problemas «europeos».

Ya los griegos quisieron dominar la zona de Mesopotamia, luego los Romanos, luego el imperio Bizantino que más tarde daría pie al Otomano, que finalmente tras la primera guerra mundial daría origen a los acuerdos de Sykes-Picot (de la imagen) y así hasta ahora… Y todos ellos salvo los últimos lo quisieron por ser una de las vías del comercio con Asia (ruta de la seda) por tierra y sin tener que dar la vuelta a África por mar (y sus consecuentes peligros). De ahí que los franceses construyeran el Canal de Suez por ejemplo.

Sin embargo los conflictos por el control del Golfo Pérsico vienen desde mucho antes, desde que el petróleo empezó a ser importante. Con la primera guerra mundial británicos y franceses ser repartieron de manera secreta las áreas del Golfo Persico sobre las que tendrían influencia, con el acuerdo de Sykes-Picot.

Y con la Segunda Guerra mundial, la Alemania de los nazis, entre otras cosas (sueños de imperio, cuestiones de raza, etcétera), quería controlar también el petróleo de Siria y norte de África, así como el de la antigua Unión Soviética, mientras que los japoneses ansiaban el petróleo de Indonesia.

¿Cabe la posibilidad de que el fin de la era del petróleo acabe con esta era de guerras por la energía? Si la energía, representada principalmente por el petróleo en el último siglo, pasa de ser una fuente de energía concentrada en pocos países como es el petróleo, a diversas fuentes de energía dispersas por todos los países, como son las energías renovables, tal vez podamos ver un futuro menos belicoso. O quizás, no, y sean otros los recursos por los que nos pelearemos. Veremos.

Fotografías | Paul Lowry, Wikipedia, Wikipedia
Vídeo | BMW
Más información | BP Statistical Review of World Energy June 2015, AIE WEO 2015, AIE Global EV Outlook 2016
En Motorpasión | Esta es la realidad del petróleo en 2014, lo quieras ver o no

==========================

2018.11.28-El fin de la era de los combustibles fósiles ya tiene fecha: año 2050, según la Comisión Europea. 28 Noviembre 2018

-(Ir atrás)

.https://www.motorpasion.com/industria/fin-era-combustibles-fosiles-tiene-fecha-ano-2050-comision-europea

Josep Camós @josepcamos

Hace años se fijó 2050 como punto y final para los coches de combustión en las ciudades de Europa. Pero el paso que acaba de dar la Comisión Europea va mucho más allá. A la práctica, podemos decir que la era del motor de combustión en Europa terminará en 2050, si Bruselas saca adelante el proyecto a largo plazo que está diseñando.

La Comisión Europea quiere terminar con el consumo de combustibles fósiles que provocan emisiones de efecto invernadero, y su plan pasa por conseguir que los vehículos de combustión desaparezcan del mapa, y que el 80 % de la electricidad que consumimos provenga de energías renovables en 2050.

Según publica El País, la Comisión Europea tiene a punto una estrategia de largo recorrido para que la Unión Europea esté libre de esas emisiones de cara a 2050. Esta estrategia viene motivada por una petición que formuló el Parlamento Europeo a la Comisión hace ahora un año, y se basa en un dato que se maneja en Bruselas: con las políticas actuales, la reducción de las emisiones será sólo de un 60 % en 2050.

«Esto no es suficiente para que la Unión Europea contribuya a los objetivos del Acuerdo de París», explica la Comisión Europea en un documento al que ha tenido acceso el rotativo. Como sabemos, el Acuerdo de París es tan inalcanzable ahora mismo que sólo 16 países están cumpliendo con los requisitos que marca.

En el punto de mira se encuentra el calentamiento global, que los firmantes del acuerdo quieren mantener a raya, procurando que la temperatura a final de siglo no ascienda en más de 1,5 a 2 grados. ¿Son realistas estas pretensiones? Bien, teniendo en cuenta que Europa es responsable de un 10 % de las emisiones de gases de efecto invernadero, cuando gigantes como Estados Unidos o China son mucho más dañinos en este sentido, habrá que ver hasta qué punto los deseos de la Comisión Europea se traducen en un resultado eficaz para todo el mundo.

Las muertes prematuras por contaminación del aire también entran en el capítulo de ventajas incontestables sobre el fin de la era de los combustibles fósiles. No sólo hablamos de reducir esas muertes en más de un 40 %, sino de rebajar los costes sanitarios en 200.000 millones de euros al año, según detalla el comisario de Acción por el Clima y Energía, Miguel Arias Cañete.

Reducir emisiones sin renunciar al crecimiento

A nadie se le escapa que la era de los combustibles fósiles ha permitido crecer como nunca antes lo consiguió ninguna otra fuente de energía. Pero tampoco se pueden ignorar sus principales efectos adversos. El más evidente habla de la contaminación y el calentamiento global. Otro, que no conviene dejar de lado, lo componen las guerras por el control del petróleo.

Bruselas defiende que es posible crecer mientras se reducen los gases de efecto invernadero. Según las estimaciones de la Comisión Europea, el PIB aumentará en un 2 %, y a este crecimiento deberemos añadir el ahorro de costes derivados del cambio climático, que ahora mismo se calculan en 240.000 millones de euros cada año, además de los costes derivados de la dependencia externa del petróleo, de dos a tres billones de euros entre 2030 y 2050.

El sector eléctrico deberá erradicar las centrales de carbón y de gas natural, para permitir que las energías renovables constituyan la base de nuestro consumo. Al 80 % de renovables, habrá que añadir en el mix energético un 15 % de energía nuclear, que no genera gases de efecto invernadero pero conlleva otros problemas de residuos.

La estrategia de la Comisión Europea no profundiza en el sector del transporte, si bien reconoce la importancia de electrificar coches y camiones y mantiene la posibilidad de utilizar biocombustibles. Además, desde Bruselas defienden el uso de impuestos y subvenciones como una «herramienta eficiente para la política ambiental».

En cualquier caso, se trata de un proyecto a largo plazo que requerirá de “importantes inversiones adicionales”, según reconocen en el seno de la Comisión Europea, aunque por el momento no se han precisado cuáles serán.

Tampoco está claro que se acepte la estrategia tal y como la presenta Bruselas. Recordemos que la Comisión Europea propone, y es la Eurocámara la que dispone, bajando luego las directivas al plano terrenal, donde los Estados miembros de la Unión aplican lo dispuesto en Europa a través de sus propias leyes.

¿Saldrá adelante esta propuesta? Es difícil precisarlo por el momento. España, Francia e Italia, entre otros países, ya han instado al comisario de Acción por el Clima y Energía a ser ambicioso con el objetivo de cero emisiones, fijado para 2050. Con todo, el principal actor económico europeo y primer productor de automóviles, Alemania, no ha querido mover ficha por ahora.

==========================

2018.11.29-Bruselas fija el fin de la era de los combustibles fósiles en Europa en 2050

-(Ir atrás)

Manuel Planelles, Álvaro Sánchez Madrid / Bruselas – 29 nov 2018 – 18:21 CET

La Comisión defiende los beneficios económicos de eliminar por completo los gases de efecto invernadero de la UE para mediados de siglo.

La era de la combustión en Europa –en la que el carbón, el petróleo y el gas natural han sido los motores de su próspera economía– tiene fecha de caducidad: 2050. La Comisión Europea propone que las emisiones de gases de efecto invernadero de la UE desaparezcan a mediados de siglo, lo que implica dejar de lado esos combustibles fósiles que han disparado el crecimiento de Occidente desde 1950. Bruselas plantea, entre otras cuestiones, que el 80% de la electricidad provenga de renovables en 2050 o utilizar la fiscalidad para luchar contra las tecnologías más sucias. A cambio, la Comisión defiende los beneficios económicos de esta transición para la UE.

Más información

El Parlamento Europeo instó hace un año a la Comisión a que presentara una estrategia de largo recorrido para que la Unión Europea (UE) esté libre de esas emisiones para mediados de siglo. Y Bruselas la presentará este miércoles. En el documento, al que ha accedido EL PAÍS, se señala que las políticas vigentes en la UE solo conducirán a reducir estas emisiones en un 60% para 2050. «Esto no es suficiente para que la UE contribuya a los objetivos del Acuerdo de París», admite Bruselas en su documento. De ahí que sean necesarias nuevas políticas y fijar un objetivo de emisiones cero para mediados de siglo.

El Acuerdo de París reconoce que ya es irreversible el calentamiento global, por eso los firmantes se conforman con que el aumento de la temperatura a final de siglo no supere un incremento máximo de 1,5 a 2 grados. Ese el margen para evitar las peores catástrofes climáticas. Lograr esa meta requiere que todos los países presenten planes de reducción de gases de efecto invernadero. Europa en estos momentos acumula el 10% de las emisiones mundiales.

Más ambicioso

La estrategia de emisiones cero en 2050 implica aumentar la ambición europea en la guerra contra el calentamiento; en 2009 la UE estableció una reducción para 2050 del 80% al 95% de sus emisiones. Entre las razones que la Comisión da ahora para elevar los esfuerzos está el reciente informe del IPCC –el equipo científico que asesora a la ONU– en el que se urge a los países a actuar ante el riesgo de fracasar y no cumplir con lo acordado en París en pocas décadas.

La Comisión intenta despejar los miedos cuando recuerda en su estrategia que se puede crecer económicamente y reducir los gases de efecto invernadero a la vez. Europa lo ha hecho: entre 1990 y 2016, esas emisiones descendieron en la UE un 22% mientras el PIB crecía un 54%. Con su propuesta Bruselas envía ahora una potente señal política. También para sectores como el energético o el del transporte, con la industria del automóvil embarcada ya en una carrera tecnológica para adaptarse al nuevo modelo.

En el documento se incide en los beneficios de esta carrera de largo recorrido. Los impactos económicos totales “son positivos a pesar de las importantes inversiones adicionales que requieren”, señala la Comisión. Según los cálculos de Bruselas, el PIB se incrementará en un 2% adicional con las políticas de descarbonización que conducirán al objetivo de emisiones cero. Y eso sin contar con el beneficio económico que supone la erradicación de los daños ocasionados por el cambio climático, que un reciente informe oficial de Bruselas cifraba en 240.000 millones de euros anuales si fracasa el Acuerdo de París.

Pero las buenas intenciones que la Comisión expone en este documento han de ser refrendadas y concretadas en un paquete de medidas amplio como el que ya existe para el periodo comprendido desde ahora hasta 2030.

Los Veintisiete deben todavía dar luz verde a esta estrategia. La predisposición parece favorable. Los ministros de Medio Ambiente de una decena de Estados –entre ellos España, Francia e Italia– firmaron hace dos semanas una carta conjunta dirigida al comisario de Acción por el Clima y Energía, Miguel Arias Cañete, en la que le instaban a ser ambicioso y cumplir con el objetivo de cero emisiones en 2050. Sin embargo, países como Alemania, el motor económico europeo, no se han pronunciado al respecto.

Muertes prematuras

Una vez el plan obtenga el visto bueno, la maquinaria comunitaria se pondrá en marcha para legislar, pero con el objetivo de cero emisiones en el horizonte. La estrategia para 2050 se debatirá también hoy en el Parlamento Europeo.

Arias Cañete resalta que el plan de Bruselas también «reducirá las muertes prematuras por contaminación del aire en más de un 40%, y los costes sanitarios se rebajarán en 200.000 millones de euros anuales». Los cálculos de la Comisión pronostican a la vez un descomunal ahorro gracias a la nula dependencia de las importaciones de petróleo: en total, entre dos y tres billones de euros de 2030 a 2050.

La estrategia de la Comisión es explícita cuando aborda la transformación del sector eléctrico. El abaratamiento de los costes de las renovables ha permitido una rápida implantación de estas energías limpias. Para 2050, Bruselas recuerda que «más del 80% de la electricidad vendrá de fuentes renovables». A ello la Comisión suma otro 15% procedente de la nuclear –que no expulsa CO2, pero que tiene otros problemas relacionados con los residuos– para hablar de un modelo de generación eléctrica libre al 100% de gases de efecto invernadero. Esta hoja de ruta supone el cierre de todas las centrales de carbón y gas natural.

En el caso del transporte, donde existen importantes presiones de los fabricantes de automóviles, la Comisión no profundiza tanto. Aunque el documento se refiere a la importancia de la electrificación de coches y camiones, no cierra la puerta a «combustibles alternativos», como biocarburantes. El documento sí recoge la polémica técnica de captura y almacenaje de dióxido de carbono, rodeada de un gran rechazo social. Sin embargo, la Comisión defiende que su «despliegue» sigue siendo «necesario». Bruselas, además, destaca la importancia de usar los impuestos y subvenciones como una «herramienta eficiente para la política ambiental».

.https://elpais.com/sociedad/2018/11/27/actualidad/1543348641_627346.html

La ONU advierte de que los países deben triplicar sus esfuerzos para cumplir el Acuerdo de París

Los expertos de la ONU urgen a tomar medidas drásticas contra el cambio climático

==========================

2020.05.20-En 2023 prohibirán los coches de combustión en las ciudades

-(Ir atrás)

Rubén Fidalgo 20 de mayo, 2020

El problema para circular por el centro de Madrid y Barcelona con vehículos con motores de combustión convencionales se extenderá a la mayoría de los municipios españoles el 1 de enero de 2023 para cumplir con la Ley de Cambio Climático.

Ayer, 19 de mayo de 2020, se aprobó en el consejo de Ministros la ley de Cambio Climático que establece los plazos y acciones para llegar en 2050 a la situación de neutralidad climática. Aunque el fin de los coches con motores diésel, gasolina, de gas o híbridos no llegará hasta esa fecha, antes ya notaremos varias restricciones, como el tráfico en el centro de las ciudades de más de 50.000 habitantes.

Según ha anunciado Teresa Ribera, la vicepresidenta para la Transición Ecológica y el Reto Demográfico, durante la rueda de prensa posterior al Consejo de Ministros, a partir del 1 de enero de 2023, todos los municipios españoles de más de 50.000 habitantes tendrán que tener una zona de bajas emisiones al estilo de Madrid Central. Esto significa que, a partir de esta fecha, en 148 ciudades de España estará prohibido circular con el coche de combustión por el centro de las mismas.

Cuando entre en vigor la Ley de Cambio Climático, sólo las ciudades de menos de 50.000 habitantes están libres de tener que regular una zona de bajas emisiones en la cual no puedan circular los vehículos con motores de combustión convencionales.

Sólo los vehículos de cero emisiones (que por ahora son principalmente los eléctricos, híbridos enchufables con más de 40 km de autonomía y los de hidrógeno) podrán acceder al centro de las ciudades de más de 50.000 habitantes, salvo que se trate de servicios excepcionales, como ambulancias, servicios de emergencias, vehículos de reparto y residentes.

No te asustes con la prohibición a los coches que entrará en vigor en 2023

Aunque la medida puede sonar extrema y ya hay muchos conductores que están en alerta, lo cierto es que esta medida no es tan drástica ni traumática como pudiera parecer. En realidad, la mayoría de los municipios de más de 50.000 habitantes ya están aplicando estas restricciones de acceso a determinadas zonas.

Lo que estipula la ley que entrará en vigor en 2023 es que haya una zona determinada de la superficie urbana de los municipios en la cual no puedan acceder los vehículos con motor de combustión. El quid de la cuestión está en que esa zona de bajas emisiones tiene que tener una superficie proporcional a la del municipio. Teniendo esto en cuenta, la mayoría de las 148 ciudades de más de 50.000 habitantes que hay en España ya tienen zonas de bajas emisiones, por ejemplo en aquellas con un casco antiguo peatonalizado. Es decir, que no habrá muchos cambios respecto a la situación actual.

El Gobierno declara el estado de Emergencia Climática

La obligación de establecer una Zona de Bajas Emisiones en los municipios de más de 50.000 habitantes es solo una de las medidas que ha planteado el ejecutivo, tras declarar  la Emergencia Climática en España. Según ha explicado la ministra Ribera, esta decisión se engloba en un paquete de 30 medidas, 5 de las cuales se pondrán en marcha durante los primeros 100 días de Gobierno, destancado especialmente el compromiso de remitir a las Cortes el Anteproyecto de ley de cambio climático y transición energética con el que se pretende alcanzar a neutralidad climática en 2050.

Las otras cuatro líneas de actuación que se pondrán en marcha de forma inmediata serán las siguientes: definir al senda de descarbonización a largo plazo, elaborar el II Plan Nacional de Adaptación al Cambio Climático, crear una Asamblea Ciudadana del cambio climático para fomentar la participación de la ciudadania e impulsar la trasnformación del modelo industrial.

Para Ribera, la puesta en marcha de esta medidas «es una oportunidad para la innovación, la generación de empleo, la mejora de la competitividad y la reducción de las brechas territoriales y de colectivos de personas. Debemos contar con una economía preparada, viable, resiliente, viable y con los referentes de la innovación para garantizar empleos de calidad, mejorar la calidad de vida en el medio rural, urbano y en el litoral».

Además, la ministra ha confirmado que se revisará el sistema fiscal con el objetivo de eliminar las subvenciones e incentivos existentes a los combustibles fósiles. «En línea con nuestro compromiso con el G20, no habrá nuevos subsidios a combustibles fósiles y revisará los que ya existen», ha indicado.

.https://www.autocasion.com/actualidad/noticias/prohibiran-coches-combustion-ciudades-50-000-habitantes-trafico-restringido

¿Tienes un coche diésel? El Gobierno quiere subirte los impuestos

==========================

2021.06.27-Volver al futuro: las curiosidades detrás del auto a hidrógeno que un físico argentino hizo funcionar en 1996

-(Ir atrás)

Los autos eléctricos están avanzando a una velocidad asombrosa pero la electricidad hay que generarla de manera sustentable o será un recurso finito. Juan Carlos Bolcich fabricó en Bariloche un Renault 9 con motor a combustión interna, pero en lugar de nafta, propulsado por hidrógeno

Por Diego Zorrero 27 de Junio de 2021

El Renault 9 se puso en marcha en 1997. Fue precursor como auto a hidrógeno inyectado directamente al motor, y fue desarrollado completamente en Argentina

Juan Carlos Bolcich nació el 28 de agosto de 1947 en Necochea, provincia de Buenos Aires. Su pasión era la Física, por lo tanto, después de cursar dos años de Ingeniería mecánica en la Universidad Nacional de La Plata, en 1969 decidió mudarse a San Carlos de Bariloche. Su plan era obtener la Licenciatura en Física de la Universidad Nacional de Cuyo, que se dicta en el prestigioso Instituto Balseiro del Centro Atómico Bariloche (CAB). Se recibió en 1972 pero siguió la carrera de Posgrado y se doctoró en Física en 1982.

El Centro Atómico Bariloche es un lugar casi místico. Situado en el kilómetro 9,5 de la avenida Exequiel Bustillo, la famosa ruta a Llao Llao, es un predio rodeado como si fuera un escudo protector, por la Escuela Militar de Montaña nro 6, y por barrios de viviendas militares. El CAB es una de las sedes pioneras de Comisión Nacional de Energía Atómica (CNEA), y se ha convertido en la cuna de la ingeniería nuclear en Argentina y la región. Además de la investigación y el desarrollo tecnológico, la formación de físicos e ingenieros nucleares, ha sido su gran valor histórico, especialmente en áreas de física, ciencia de los materiales e ingeniería nuclear. Pero en el CAB, no solo se investiga y se estudia. Juan Carlos Bolcich tiene 73 años, vive con su familia en San Carlos de Bariloche, donde estudió el hidrógeno por 40 años

Allí viven muchas familias que forman parte de la institución. Desde la entrada al predio, dos calles de unos 300 metros de largo, bordean una gran manzana con casas alpinas de piedra de los años 50, verdes jardines llenos de pinos antiquísimos, un grupo de cuatro edificios de tres pisos, una proveeduría, un comedor y una zona de recreación con canchas de tenis, básquet y un frontón de pelota paleta. Todo eso forma parte de la zona social del lugar, en el que conviven físicos e ingenieros nucleares, empleados administrativos y estudiantes de las carreras de Grado y Posgrado que se dictan en el Instituto Balseiro. Como la ciudad estaba algo alejada para los medios de transporte de la ciudad en los años 70, lo que hoy es el comedor eran dos espacios de esparcimiento para los estudiantes. Uno de ellos era una sala de juegos, el otro era una discoteca llamada El Electrón loco. Fue allí donde nuestro personaje conoció a Maggie David, con quién se casó en 1971 y aún comparten la vida, y con quién tuvieron cinco hijos, Alejandro, Diego, Ivanna, Úrsula y Bárbara.

Por el caño de escape del Renault 9 a hidrógeno, solo salía vapor de agua. A eso, hoy se lo conoce como un motor cero emisiones de gases efecto invernadero

Si bien se especializó en Física de Metales y Materiales Nucleares, de a poco su inquietud lo llevó a iniciar el fascinante camino de las investigaciones aplicadas en Hidrógeno. Y es aquí donde comienza la historia que queremos contar hoy.

Es la historia de un Renault 9 que, en 1997, se puso en marcha únicamente con hidrógeno, pero no con pilas de combustible de hidrógeno como los nuevos motores que, por ejemplo, está impulsando Toyota con el modelo Mirai. Aquel auto solamente funcionaba con hidrógeno inyectado directamente al motor.

Todo empezó unos diez años antes, en 1986. Habíamos puesto en marcha un motor Ford V8 que nos había cedido Eduardo Santos, quien trabajaba también en la CNEA. Y con Carlos Vidal, un estudiante uruguayo que yo tenía, que era muy ingenioso, desarrollamos un dispositivo para alimentar el motor con hidrógeno directamente en la boca del carburador. A través de una electroválvula como las del GNC, se regulaba la cantidad de hidrógeno y se cortaba el suministro de nafta. Había una transición en la que el motor andaba con nafta e hidrógeno, pero después quedaba con hidrógeno solo. El motor andaba ‘redondito’, muy silencioso, muy bien. Pero esto era sólo un primer ensayo, con el motor en vacío, es decir, sin carga, que es mucho más simple”, cuenta Bolcich, dándonos una primera aproximación a lo que sería años después, su primer auto a hidrógeno.

La idea quedó siempre, pero ya no se trataba de hacer funcionar un motor únicamente, sino un auto completo, con toda su complejidad, y ya sin tener que recurrir a la nafta en ninguna etapa de la combustión.

El motor y el creador del proyecto, Juan Carlos Bolcich

“Allá por el año 96, vino a Bariloche un profesor de origen cubano, Enrique Fernández Navarro, hoy fallecido, con quién trabajamos este tema de los motores, que ya empezaban a tener más adeptos en todo el mundo. Llegaban noticias de otros países que estaban pensando en el hidrógeno para uso vehicular. Si bien ya se trabajaba en pila de combustible, tanto BMW como Mercedes, seguían investigando el uso de hidrógeno directo para los motores. De hecho, este cubano había trabajado con un motor monopunto de Mercedes. Entonces lo que hicimos fue buscar un motor para volver a trabajar en el proyecto. A través de un amigo del Rotary Club, Marcos Visconti, conseguimos que el agente Renault en Bariloche, Pedro Verger, nos consiguiera un auto completo en comodato de Renault Argentina, y así llegó a nuestras manos el Renault 9 para que hiciéramos los ensayos.”

“Fue en base a ese motor que se comenzó a hacer el desarrollo de los inyectores entre Fernández Navarro y Bolcich. La implementación la hicieron con Alan Orse, quién fabricó los inyectores en Bariloche, y Gustavo Wimann, que tuvo la responsabilidad de la gestión electrónica. Y esto era clave, porque sin la electrónica jamás hubiera funcionado el sistema”, aclara Bolcich.

“Era un motor tradicional con carburador, al que se le puso una placa de aluminio con un inyector para cada cilindro. Venía el hidrógeno gaseoso a 5 atmósferas de presión al inyector. El inyector soplaba a la cámara de admisión. Había un sensor de la posición de la mariposa, un sensor de RPM, un sensor de temperatura, y todo eso iba a una computadora que leía esos parámetros y decidía cuánto tiempo tenía que abrir el inyector según la necesidad. En el cilindro, entonces, entraba el hidrógeno soplado a la cámara de admisión más el aire que entraba por el carburador.”

Momento histórico al hacer la primera carga de higrógeno comprimido en la Planta desarrollada por Galileo en Pico Truncado, en Santa Cruz

De ese modo, entre los cuatro, se llevó adelante el desarrollo de este motor. Después, para conseguir el dinero que permitiera la implementación concreta en un auto, hubo apoyo desde la ciudad natal de Bolcich, Necochea, y fue allá, en un taller de GNC, donde pudieron montar todo el dispositivo.

Ese vehículo anduvo como elemento demostrativo. El funcionamiento se producía con el hidrógeno cargado en un tubo, con un sistema de conexión tipo bayoneta, como el GNC, siempre con todos los cuidados. La carga la teníamos que hacer al aire libre, con buena ventilación para prevenir cualquier accidente con el hidrógeno. El auto hizo una prueba de funcionamiento en Bariloche, en un tramo de unos 5 kilómetros, entre el Teleférico del Cerro Otto y la Virgen de las Nieves. Después, en Necochea, salimos a la ruta y llegó a tocar los 110km/h de velocidad. No era mucha la potencia, porque había que optimizar los inyectores para que tengan mejor llenado a mayor presión. Estos eran los primeros pasos. Pero el auto andaba solo con hidrógeno y aire, sin combustible fósil. Después se llevó el auto a Pico Truncado, en Santa Cruz, donde podíamos cargar el hidrógeno con el compresor de hidrógeno que ellos habían desarrollado con Galileo, y fue una gran solución porque se llenaba mejor y de modo más seguro. Finalmente el auto quedó allá, en Santa Cruz. Y después lo desarmamos para usar los inyectores en otros proyectos como el de grupos electrógenos chicos, que puedan funcionar con hidrógeno también.”

¿Pero qué pasó con el auto a hidrógeno de Bolcich? ¿Por qué no fue hasta los últimos años que esta forma de energía empezó a ser tomada en cuenta?

“Todo este proyecto fue siempre a pulmón. Tuve un apoyo limitado. Empecé hace 41 años a estudiar el uso del hidrógeno. Y llegamos a un punto en que nos tuvimos que ir a buscar apoyo a otros lugares. Lo encontramos en Santa Cruz, en Chubut. En aquel momento creo que no nos apoyaron por celos. Algunos colegas vieron el potencial del proyecto, pero yo era el loco Bolcich. Prefiero dejarlo ahí”, dice Juan Carlos, con un dejo de resignación, quizás por el paso del tiempo.

Y continúa: “Siempre creí en este recurso y por eso me hice enseguida parte del ambiente mundial de hidrógeno. Hoy soy vicepresidente para Latinoamérica de la International Association for Hydrogen Energy (IAHE) desde 2012, y soy el Presidente de la Asociación Argentina del Hidrógeno (AAH), desde 1996. Hice muchas relaciones en la Universidad de Stuttgart, donde está Damiler, que por esos años ya investigaba fuertemente el uso del hidrógeno en motores de combustión interna. También tuve mucha colaboración de Canadá. Hubo una época que conocía más lugares de Canadá que de mi propio país.

En su casa en Bariloche, Juan Carlos Bolcich no deja de investigar. Su meta es poner al hidrógeno como el combustible definitivo del futuro

“Miremos al cielo, apostemos al hidrógeno”

La inquietud del Dr. Bolcich es mucho más amplia que la del simple uso del hidrógeno para la movilidad que no genere gases de efecto invernadero. De hecho, con su familia, desarrolló una cosechadora de vientos, que tiene instalada en su propia casa en Bariloche. Sin salir completamente del ámbito de los autos a hidrógeno, su explicación tan amplia como fascinante.

Es tanta la energía que proviene del sol, el viento y los ríos, que por más que se pierda mucha y la eficiencia no sea ideal, es un bien infinito. El tema es recolectar esa energía para poder usar de acuerdo a demanda, porque es energía dispersa, no está concentrada en un pozo como el petróleo. La electricidad no debería llegar a ser más del 50% de la energía que se puede generar directamente, porque el problema es la red eléctrica. Por más que tengamos grandes tendidos eléctricos de alta tensión, estos son como una avenida. Cuando el tránsito es mayor a la cantidad de autos que pueden circular, la avenida queda angosta y el tránsito se frena.”

Y continúa Bolcich explicándolo de modo que podamos entenderlo. ”Con la electricidad pasa lo mismo. Por eso los autos eléctricos enchufables no son el futuro, sino los eléctricos a través del hidrógeno. Podrán ser de pila de hidrógeno o de hidrógeno por inyección directa, pero no serán todos eléctricos. Lo que hay que hacer es usar esos recursos naturales infinitos pero variables, de manera inteligente. Porque el sol de noche no está, el viento no siempre sopla y los ríos no siempre tienen caudal. Y además, la demanda también es variable y estacional. Si la demanda es directa y la energía eléctrica que se genera, así como nace se consume, habrá momentos en los que no alcance y momentos en los que habrá exceso de producción”.

“Lo que hay que hacer es un colchón. Transformar esa energía de los recursos naturales en hidrógeno a través de electrólisis y almacenarlo para poder transformarlo en energía eléctrica nuevamente al momento que sean necesaria. Por esa razón los autos eléctricos no reemplazarán completamente a los autos a combustión, porque las autopistas por las que viaja la electricidad no darán suficiente respuesta. Esos motores podrán ser eléctricos a través de pila de combustible de hidrógeno, pero ahí habrá un desecho que es la batería. En cambio, el hidrógeno a inyección directa, permitirá mantener los motores a explosión, solo que el gas que combustione será hidrógeno y lo que saldrá por el caño de escape, será vapor de agua y no gases de efecto invernadero.”

Este tipo de personas solo nos puede generar admiración y reflexión. No hace falta ser físico o ingeniero para entender los argumentos. Saber que en 1986 tuvo esta mirada, que logró demostrar su teoría a través de la práctica, y que hoy, 35 años después, el mundo va por esos caminos, solo puede darnos certidumbre. No es solo un tema de autos, es un tema global y el hidrógeno parece ser la gran respuesta.

.https://www.infobae.com/autos/2021/06/27/volver-al-futuro-las-curiosidades-detras-del-auto-a-hidrogeno-que-un-fisico-argentino-hizo-funcionar-en-1996/

==========================

2021.10.15-La Comisión Europea propone prohibir la fabricación de autos de combustión interna desde 2035

-(Ir atrás)

La propuesta presentada este miércoles en Bruselas bajo el nombre “Fit For 55” demanda que los autos bajen sus emisiones un 55% para 2030 y sean nulas para 2035. Esto eliminará los autos a gasolina, diésel e incluso los híbridos en la Unión Europea

La Presidenta de la Comisión Europea, Ursula von der Leyen, presenta la propuesta de política climática para la Unión Europea en Bruselas

Si bien es conocida la idea de dar por finalizado el ciclo de vida de los motores de combustión interna en el transcurso de las próximas dos décadas, la propuesta elevada por la Comisión Europea este miércoles, en el marco del plan “Fit For 55” (en forma para 55 en inglés), ha sido contundente. Según dijo su Presidenta, Ursula von der Leyen, “la era de los combustibles fósiles ha llegado a su fin”.

El llamado Pacto Verde Europeo (European Green Deal) busca reducir para 2030 las emisiones de dióxido de carbono un 55% respecto a la actualidad, mientras que para 2035, estas deberán ser 0%, es decir, sin emisiones de CO2 que no pueda ser absorbido por la naturaleza.

“El 20 % de nuestras emisiones sigue procediendo de nuestras carreteras”, dijo la comisaria europea de Transporte, Adina Valean, a la vez que puso especial énfasis en que el organismo no planea dejar de impulsar la industria del movimiento.

Los autos que emiten gases de CO2 deberán dejar de fabricarse a partir de 2035

Esta medida anunciada en Bruselas, claramente afectará fuertemente a la industria automotriz, que viene en franco cambio hacia los autos que reduzcan las emisiones, pero ahora encuentra un endurecimiento mayor al que preveía. De hecho, las principales compañías europeas del sector se encuentran negociando una flexibilización de la norma Euro 7, que debe entrar en vigencia en 2027 pero será aprobada en 2025. Esta reglamentación ya ponía en serios problemas a muchas de esas compañías, especialmente para la fabricación de autos pequeños y medianos, debido a su alto costo para poder cumplir con la exigencia de la norma que los sacaría del mercado, según han manifestado los referentes de la industria.

El Pacto Verde anunciado, prohibirá la fabricación de todos los vehículos que generen combustión de dióxido de carbono desde 2035, incluyendo motores de gasolina o nafta y diésel, pero también los híbridos de todo tipo. Sólo quedarán en circulación desde ese momento, aquellos que fueron fabricados antes de esa fecha, los que deberían salir dejar de funcionar definitivamente para 2050. Para entonces Europa quiere anunciar que será el primer continente que ya no emitará gases de efecto invernadero.

El Pacto Verde europeo tiene un plan de acción inmediata llamado «Fit For 55», que pretende reducir las emisiones de los autos un 55% para 2030, impulsando el uso de los vehículos elétricos y de hidrógeno como opción a la movilidad y el transporte

Las medidas paliativas o complementarias de esta decisión incluyen subvenciones al costo de la energía eléctrica y aumento de los combustibles derivados de hidrocarburos. Como el plan está orientado a impulsar el uso de autos eléctricos y el uso del hidrógeno para medios de transporte terrestre pesado, naval y aéreo, el proyecto legislativo fija que a partir de 2035 se disponga de un puesto de recarga de electricidad cada 60 kilómetros en las principales vías y de hidrógeno cada 150 kilómetros.

Pero la Comisión Europea va más allá. Porque además de prohibir la fabricación, pretende que aquellos países que no tengan un fuerte compromiso ambiental, manifiesto y reglamentado contra las emisiones de efecto invernadero, no puedan ingresar a la comunidad europea con sus productos. Esto dejaría, al día de hoy, afuera de ese mercado de consumidores estimado en 450 millones de habitantes, a los vehículos fabricados en EEUU y a los provenientes del mercado asiático, que no sean eléctricos, lo que ya ha despertado las primeras reacciones. De hecho, la CE prevé antes de llegar al punto de la prohibición, arancelar fuertemente la importación de autos de los mercados que no tengan la misma política ambiental, de manera de hacer poco rentable el negocio para esos productores.

Para camiones y buses, barcos y aviones, la opción del hidrógeno es una realidad, aunque también podría serlo el e-fuel o combustible sintético

Lo que llama la atención, es que no hay mención alguna en los documentos, ni tampoco en la presentación que se ha hecho en Bruselas, a los combustible sintéticos, conocidos también como e-Fuel, excepto como una opción para el transporte aéreo. El combustible sintético es un tipo de combustible líquido, muy similar al que conocemos que se obtiene empleando materias primas disponibles como biomasa sostenible, residuos biológicos, CO2 capturado y agua, reduciendo el uso de combustibles de origen fósil.

Si bien la razón parece estar en el alto costo de desarrollo, un plan a tan largo plazo como son casi diez años para la primera etapa de reducción, y de 15 años para la prohibición total de los motores a combustión interna, podría incluir esta alternativa. De hecho, la Federación Internacional del automóvil (FIA) acaba de anunciar que entregará a los fabricantes de motores de Fórmula 1, una primera partida de e-Fuel para que comiencen sus ensayos con miras a su implementación en el nuevo reglamento de motores que reemplazará al actual, en el que conviven un motor a combustión interna de gasolina, con un motor eléctrico regenerativo.

Por Diego Zorrero 15 de Julio de 2021

https://www.infobae.com/autos/2021/07/15/la-comision-europea-propone-prohibir-la-fabricacion-de-autos-de-combustion-interna-desde-2035/

==========================

==========================

==========================

==========================

==========================

==========================

==========================

Manuel Ríos y el centenario de Carabobo


-El 1º de junio de 1921 recibe la EAM, la orden del Ministerio de Guerra y Marina de preparar aviones Caudron G-3 para realizar un vuelo al histórico Campo de Carabobo el 24 de junio, al cumplirse el 1er centenario de la batalla que dió la Independencia a Venezuela
– Aquel día se iba a realizar una gran Parada Militar en dicho Campo en la que desfilarían 8.000 hombres de todas las ramas del Ejército y de la Marina de Guerra. Al frente de ella, comandando la Parada Militar estaría el Gral. Juan Vicente Gómez.
-El día 23 todo estaba listo para efectuar el vuelo,la misión francesa preparo 8 aviones donde  participarían en el mismo pilotos venezolanos Subtenientes Manuel Simón Ríos Hernández, Miguel Rodríguez Ravelo y Julio Fortoul, cada uno de ellos al timón de un Caudron G-3. Los aviones despegarían de Maracay a las 9am
– El día 23 todo estaba listo para efectuar el vuelo, participarían en el mismo pilotos venezolanos Subtenientes Manuel Simón Ríos Hernández, Miguel Rodríguez Ravelo y Julio Fortoul, cada uno de ellos al timón de un Caudron G-3. Los aviones despegarían de Maracay a las 9am
-El oficial instructor de la misión, Tte Fieschi, delibera respecto al mal tiempo reinante y tomando en cuenta el poco entrenamiento y la ninguna experiencia para estas condiciones de vuelo de los pilotos venezolanos, decide la no participación de estos últimos. Fortoul da un paso al frente, se arranco el ala de pecho con la mano y dice»para que tengo esta insignia si no puedo volar el dia de la independencia de mi país». acto seguido fue pasado a cumplir arresto por su acción , sanción que fue aprobada al tener conocimiento por el mismo Juan Vicente Gómez diciendo «No se le puede perdonar…Yo hubiera hecho lo mismo».
– Los 4 aviones despegaron a la hora fijada de Maracay y tres de ellos: Capitán Robert Petit (asesor de la fabrica Caudron), Tte. Jean Teoussaint Fieschi y SubTte. Georges Alphonse Teppe, regresaron sin poder lograr siquiera sobrepasar el pueblo de Mariara en el Estado Carabobo.
-Tan solo uno de los pilotos, el Alf. Roberto Guerin, exponiendolo todo, se lanzó en un vuelo razante a solo 50m de altura, bordeando el Lago de Valencia sin perder la altura llegó al Campo de Carabobo en el instante preciso de participar en la Gran Parada Militar de ese día
-Después de realizar pasajes a baja altura sobre el Ejército en Parada y virajes muy cerca del Arco Conmemorativo, aterriza en una pista preparada de antemano al lado derecho del histórico monumento donde se reabasteció de combustible y regreso a su base de Maracay.
-Es así como aquel 24 de junio por primera vez en nuestros anales, hace acto de presencia la Aviación Militar, integrándose de esta manera al seno de sus gloriosos hermanos del Ejército, como nueva y formidable Arma para Venezuela.
– La incorporación de la Aviación por la vía de hecho a las filas castrences fué sellada ese día en el Histórico Campo de Carabobo, donde el gesto simboliza el fraternal y apretado abrazo que da el Ejército a su nueva hermana.

Fortoul luego va los Estados Unidos.

Fuente: Autor anónimo (RRSS WhatsApp)

Entrevista a  Florencio Gomez Nunez.

18/09/2021 [25/6 2:07] +58 412-7428706:

Breve descripcion del Universo: Lo que Vemos en el cielo. I


 §Contenido

En el Sistema Solar: ^

Velocidad de giro y traslación de la tierra en el sistema solar: ^

Figura 1 La Tierra en el sistema solar visto hasta el cinturón de Kuipler

La tierra gira sobre sí misma a 1.670 km/h , en el ecuador, (lo que más rápido que los 1235.52 km/h del sonido en condiciones estándar), al mismo tiempo que orbita alrededor del Sol alejado a una unidad astronómica (U.A.), que corresponde a unos 150 millones de kilómetros, en una elipse de unos 930 MM de km (millones de kilómetros) con una velocidad como media de 107.280 km/h (29.5 km/s ,lo que es 87 veces más rápido que el sonido).

En la Nube Local Interestelar  del vecindario estelar.^

Figura 2 . a) límite de sistema solar hasta la heliopausa con inclinación respecto al plano galáctico. b) Diferentes representaciones de La nube Local que alberga al sistema solar, Representación de la Burbuja Local que contiene a la nube local.

De aquí en adelante las distancias comienzan a ser mucho más enormes, y para simplificar además de las unidades astronómicas “UA” podrán ser denotadas en primer lugar en años-luz “a.l.”: un año luz equivale a la distancia recorrida por la luz en un año, de alrededor de 9.5 E12 km (9.5 Trillones de km, o en ingles «9.5 billions of km»).  También se usara el parsec :“paralaje de un arco por segundo”, donde 1 pársec es igual a 206264.81UA o también igual a 3.2616 años luz .

El sol expande su influencia hasta dos límites: El primer límite es la Heliopausa, una burbuja protectora de plasma formada en su desplazamiento como  especie de halo  (en forma de gota o bien como la estela creada cuando la sección de una varilla circular se mueve en la superficie del agua) que marca fin del efecto del viento solar y el inicio del espacio interestelar “ISM” (dista del sol en la dirección directa al viento interestelar a casi 120 UA (unidades astronómicas)  o 180 mil millones de km,  mientras que en la dirección opuesta, se estima que esta aproximadamente a 350 UA.

Este límite al espacio interestelar, la heliopausa,  fue cruzado por la Sonda estadounidense “Voyager-1” en agosto de 2012, la sonda viaja en la dirección de la constelación de Ofucio en la «mano que sujeta la cola de la serpiente»(entre Sagitario y Escorpio) a 17 Km/s (recorre 3.5 UA al año), con ella es lo más lejos que hemos recorrido. En noviembre de 2018 la «Voyager-2»  cruzo también el limite de la heliopausa, se desplaza a 55.522 Km/h hacia el sur celeste en dirección de la constelación de Sagitario, y dentro de 40.000 años pasara a 1.7 años luz de la enana roja Ross 248 (es lo mas cerca de ella), y pasara inmediatamente a aproximarse al borde de la hipotetica nube de Oort, esto ocurre a la vez que nos alejamos de la actual estrella mas cercana, la Alpha centauri ( en la constelación austral de Centauro,  la que estará para ese entonces a 3.02 a.l. de distancia. La «Voyager 2» terminara de cruzar la nube de Oort en 61.000 años .

El segundo es el límite que marca el efecto gravitacional en la hipotética nube de Oort (a 1.87 años luz o casi 50.000-hasta las 200.000 UA), esta casi tal alejado como el borde de la nube local y casi colinda con en el área de influencia de la estrella vecina alpha centauri, en pocos términos esta casi menos de la mitad de la distancia en entre ella y el sol. El sol se encuentra muy cerca del borde de una nube de gas interestelar local, Nube o “pelusa Local” y se mueve aproximadamente perpendicular a ella, como se verá, esta es una región de 300 años-luz, que cruza temporalmente, que contiene una gran cantidad de hidrógeno neutro y de la que saldrá en unos 50.000 años (según estudios publicados en 2014), a lo que el sol se adentrará posteriormente en la Burbuja Local, en la que actualmente se encuentra (casualmente) casi en su centro .

Figura 3 El Sistema Solar dentro el un radio de 60 años luz con las estrellas vecinas o vecindario estelar

En esta posición, el sol se encuentra atravesando la nube local, pero poco mas alla se encuentra el vecindario estelar, entre ellas Alpha Centauri, la estrella mas cercana al Sol a unos 4 años luz de distancia en el complejo de la nube de gas vecina G-Cloud, y Sirius, la estrella mas brillante en nuestro cielo nocturno.

En la Burbuja Local ^

Figura 4 Representación del vecindario estelar dentro de la burbuja local

Figura 5 Representación de la Burbuja Local Creditos NASA, Catherine Zucker(2022), Map Of The Local Neighbourhood Of The Sun is a photograph by J. Baum & N. Henbest/science (2018)

Burbuja Local: El sol igualmente está desde hace más de 100 mil años, y lo seguirá estando por otros 20 mil o 30 mil años,  en la “burbuja local” (mostrada en la imagen con los marcos de referencia de la Nube Local interestelar). En estudios publicados en julio 2014 (M Galeazzi) y actualizados en enero de 2022 (por Catherine Zucker quien uso  datos del satélite- observatorio espacial europeo GAIA), se le había estimado una dimensión inicial de 300 a.l., lo que fue actualizado ahora de 500 a.l. de radio (o  150 Parsecs desde el Sol aproximadamente). Esta burbuja se originó debido a una cadena de eventos que comenzó hace 14 millones de años con un conjunto de unas 15 poderosas supernovas a lo largo del tiempo, pero en concreto se cree que fue debido en particular a la explosión en supernova de una de las estrellas, en estos momentos cercanas al Sol, llamada Gemiga (actualmente es una estrella de neutrones en la constelación de Géminis,  es la segunda más brillante en la emisión  rayos gamma de alta energía en el cielo, y es el púlsar conocido más cercano a la Tierra a 100 parsecs o unos 330 años luz), y que posteriormente su polvo y restos logró formar esta nebulosa que se expande a 6.7 km/s. El sol se encuentra aproximadamente en el centro de la región de la burbuja, a la que entro hace 5 millones de años, pero cuando esta se creo,  estaba alejado unos 900 años luz de distancia.

Burbuja “Loop I”: También en el Brazo de Orión, la superburbuja  vecina a la Burbuja Local, es  llamada “Loop I” y se cree que fue creada por estrellas que se crearon en la Asociación Scorpius-Centaurus , a unos 500 años luz del Sol hace  15 millones de años en sus regiones: Upper Centaurus-Lupus el “Lower Centaurus-Crux associations”, y el “Upper Scorpius”  y que colapsaron como supernovas  hace unos 12 millones de años  en la región más masiva “Upper Centaurus-Lupus”, y en el “Upper Scorpius”  hace 1.5 millones de años, así como también se agrega los efectos de  vientos estelares  . La Asociación Scorpius-Centaurus dista su centro a unos 470 años luz de distancia en el cinturón de Gould y contiene varios cientos de estrellas, en su mayoría de tipo B, de acuerdo a los tipos espectrales por  las líneas de emisión de hidrógeno, incluidas Shaula , Lesath y Antares  (Alpha Scorpii)., que se encuentra a unos 500 años luz de distancia. Cuando la burbuja local y el Loop I chocaron, se formó en el límite entre los dos el complejo “Local Fluff”. con dos túneles que conectan las cavidades, o «Túnel Lupus».  Este límite se encuentra a una distancia de 50 a 130 años luz y atraviesa las nubes que están invadiendo nuestra Burbuja Local. La burbuja Loop I se encuentra aproximadamente a 100 parsecs , o 330 años luz visto desde la tierra , en dirección del Centro de la Vía Láctea.

Límite visual sin telescopio del sistema estelar Local: Cinturón de Gould y Onda de Radcliffe. ^

Figura 6 El Cinturón de Gould con las agrupaciones estelares de Orión, Tauro, y Escorpión-Lobo-Centauro y la Onda de Radcliffe con la vista Perspectiva desde la tierra y la Perspectiva de puntos vista superior, lateral y frontal alejados de la tierra. Las regiones de la nubes moleculares tanto de la onda como del cinturón se representan dentro de áreas de líneas rojas.

Figura 7 Representación de las burbujas estelares dentro del Brazo de Orión (de la vial láctea)

La Burbuja Local forma parte a su vez del Cinturón de Gould, pero el sol aunque está inmerso, no pertenece al cinturón. El Cinturón de Gould (descubierto en 1874 ) es un anillo o disco elíptico parcial de gas y estrellas, situado a unos mil años luz del Sol, con un tamaño de unos 2.200 por 3.200 años luz, inclinado respecto al plano galáctico entre 18° y 20°, y situado entre dos grupos de estrellas bien definidos: el de Orión, en su extremo sur, y la asociación Escorpión-Lobo-Centauro, en el norte, y solo visible desde el hemisferio sur.

imagen mas amplia del vecindario del brazo de Orion. Creditos: J. Baum & N. Henbest

La inmensa mayoría de las estrellas en el cielo, especialmente las visibles a simple vista, (de las 300 estrellas más brillantes del cielo, por ejemplo, sólo diez están más allá del Cinturón de Gould; y no mucho más alejados) casi dos tercios de las estrellas masivas en un radio de 2000 años luz del Sol se localiza en esta área del cinturón de Gould o más lejos. Un arco de estrellas brillantes que corre de norte a sur desde las Pléyades, a través de Tauro y las estrellas brillantes de Orión y Canis Major

Una teoría de su formación es que fue el resultado de una onda de choque producida por la colisión de alguna nube con el disco galáctico hace 50 o 60 millones de años, donde actualmente se encuentra la constelación de Perseo, y asimismo se cree que en su expansión se ocasionaron las supernovas que crearon la burbuja local. Sin embargo estudios posteriores (Emilio J. Alfaro-2009) sugieren que esta estructura es en realidad la alineación transitoria de dos grupos de estrellas, sugiriendo que la región de Orión es rica en cúmulos, en tanto que el extremo de Orión y Escorpión-Lobo-Centauro tienen una densidad casi nula de este tipo de objetos, resultado que se suma a la diferente velocidad de ambos grupos estelares, cuya explicación resulta imposible con los modelos actuales.

Asi, la estructura de gas coherente más grande que conocemos en la galaxia “el Cinturón de Gould” parece ser solo una parte de la mucho más grande “Onda Radcliffe”, que no forma un anillo alrededor de nuestro sistema solar, sino que se acerca y se aleja de él en forma de una enorme onda.

La onda de Radcliffe (descubierta en 2020) es la estructura gaseosa coherente más cercana en la Vía Láctea , salpicada de una alta concentración relacionada de viveros o guarderías estelares . Se extiende alrededor de 9,000 años luz ( unos 8.800 años luz ) o alrededor del 9% del diámetro de la galaxia, abarcando nubes de estrellas en el vecindario solar. comienza cerca de Orión en un valle a unos 500 años luz por debajo del disco de la Vía Láctea. La ola se precipita hacia arriba a través de las constelaciones de Tauro y Perseo, luego finalmente alcanza su punto máximo cerca de la constelación de Cefeo, 500 años luz por encima del centro de la galaxia.

Esta estructura parece ser ondulada, con una forma tridimensional bien descrita por una onda sinusoidal amortiguada en el plano de la Vía Láctea con un período promedio de aproximadamente 7.000 años luz y una amplitud máxima de aproximadamente quinientos años luz. Toda la estructura ondulada también se extiende a unos 400 años luz de profundidad, incluye unos 800 millones de estrellas y es densa con gas activo de formación de estrellas (conocido en términos más deliciosos como «viveros estelares»)

El sol se encuentra a sólo a casi 500 años luz de la ola en su punto más cercano en la nube molecular de tauro.

Su origen se presume como los restos de una galaxia más pequeña que colisiono con la vía láctea.

La onda de Radcliffe contiene cuatro nubes de las cinco del Cinturón de Gould, asociadas al sistema estelar local:

La nube que está en el Cinturón de Gould pero dentro del alcance de la onda de Radcliffe es el: complejo de nubes Rho Ophiuchi (con la Asociación OB Scorpius-Centaurus ), a veces llamada Sco-Cen o Sco OB2 . Esta nube parte de una estructura lineal paralela a la onda Radcliffe

Otras estructuras en la ola, más alejadas del sistema estelar local, son Canis Major OB1, la Nebulosa de América del Norte y Cygnus X

Velocidad del sol respecto al centro de la galaxia. ^

Figura 8 Región que contiene al sistema solar en Brazo de Orión dentro la vía Láctea

Figura 9 Representación del desplazamiento del sol a lo largo de un año galáctico.

En el entorno estelar local existe el  movimiento relativo del Sol con respecto a su vecindario de estrellas. El punto del cielo que indica esta  dirección  se demonina ápex solar, y esta dirigido hacia la constelación de Hercules cerca de cerca de la estrella Hercules Xi ( ξ ). La velocidad a la que el Sol se mueve hacia el ápex es de unos 16,5 km/s.

El movimiento local del sol es elíptico, ascendiendo y descendiendo respecto al plano galáctico, pero como se mantiene dentro del movimiento de la estructura del brazo de “Orion” , de la galaxia, que gira alrededor de la galaxia demorando entre 225 y 244 millones de años( para el sol año galáctico o el giro completo de la vía láctea), por lo que el sol aparenta dar en un año galáctico aproximadamente cuatro ciclos de ascenso y descenso alrededor de la vía láctea.

El sol, en el movimiento junto con la región que actualmente constituye el brazo de “Orion”  se desplaza alrededor del centro de la galaxia, a una velocidad aproximada de entre unos 828.000 a 850.000 km/h. (o según otras estimaciones a 792.000 kilómetros por hora (220 km/s,  incluyendo el movimiento del sistema de reposo local). Así mismo dista del centro de la Vía Láctea donde está el agujero negro central “Sagitario A” unos 25.000 años-luz.

La tierra tiene de 4500 a 4600 millones de años de antigüedad, por lo tanto el sistema solar y con él la tierra han dado la vuelta completa 20 veces desde la formación de la tierra y le restan 77 millones de años para completar la numero 21. La vía láctea es de 100-120 mil años luz de diámetro.

En el Grupo Local. ^

Figura 10 Representación de la galaxia dentro del Grupo Local

La galaxia vecina aunque no la más cercana es la llamada “Andrómeda” ( de 220 mil años luz de diámetro , la más grande y brillante del Grupo Local, y situada a 2.5 millones de años luz-o 775 kiloparsecs -) se mueve hacia la Vía Láctea, o mejor dicho se están atrayendo entre si, a punto que se prevé que van a colisionar a 300 kilómetros por segundo –[468.000 km/h a
(130 km/s)] en algún momento futuro (unos 5.000 millones de años). Ambas pertenecen a la más de una veintena de galaxias del grupo local

Velocidad del grupo Local. ^

La vía láctea junto a sus galaxias vecinas (del grupo local con un diámetro de 10MM a.l. y , un total unas 42 galaxias hasta ahora identificadas), se mueve por el Universo a más de 2.3 millones de km/h, (o lo que es lo mismo, a 631 km. por segundo, unos 400 kilómetros por segundo más allá de lo esperado). Se han hecho grandes esfuerzos a fin de dilucidar la causa de este movimiento.

El Cumulo de Galaxias de Virgo. ^

Figura 11 Representación del Grupo Local dentro del Supercumulo de Virgo. Se observa que es cúmulo de virgo es una de las estructuras vecinas al Grupo Local.

El grupo Local es a su vez atraído hacia el Cumulo de Galaxias de Virgo a unos 59.400 millones de años luz y se estima que debe poseer de 1300 a 2000 galaxias, se encuentra en nuestro cielo atravesando a la constelación de Virgo, aunque también se le puede observar cerca de la constelación de Coma Berenices, al igual que el polo Norte de nuestra galaxia.

En el Supercumulo de Virgo. ^

El Cúmulo de Galaxias de Virgo y el cúmulo local pertenecen a su vez a unas de las 100 que forman el SuperCumulo de Virgo o en Ingles “Virgo Supercluster”.

Figura 12 El Supercumulo de Virgo representado con los Supercumulos vecinos o locales.

Los Supercumulos Locales. ^

Figura 13 Los supercumulos locales representados en dos formas de simulación por computadora

Figura 14 Los supercumulos locales representados dentro de lo que es el universo local.

Figura 15 Laniakea dentro del universo Observable. Se observan las regiones vacías o repulsores.

Cuando apreciamos el conglomerado de galaxias en cúmulos y supercumulos vemos que forman una red, o bien una estructura similar a una esponja con “vacíos”, nodos (los cúmulos), hilos y murallas de galaxias. Muchas de las estructuras, han recibido los nombres por localizarse en la dirección de las constelaciones que vemos desde la tierra, entre ellas de las más cercanas se cuentan: Coma, Pavo-Indus, Perseus-Piscis. Pero no son todas…, y tampoco están estáticas, pues por efecto de los fenómenos físicos en especial la gravedad, se mueven convergiendo hacia estructuras condensadas que se han llamado “Atractores”, y alejándose de los aparentes “vacios” llamados “Repulsores”.

En Laniakea y movimiento hacia el Gran Atractor. ^

Figura 16 Laniakea y el gran atractor dentro de ella

Figura 17 La vial actea, el cumulo de virgo y el Gran atractor . Las flechas en negro muestran el flujo de movimiento de las estructuras, todas convergiendo a el Gran Atractor.

En 1987, El astrónomo emérito Alan Dressler, de la Institución Carnegie junto un equipo de astrónomos que han recibido el nombre de guerra de “Los siete Samuráis”, (en alusión a la versión japonesa anterior a la famosa película “Los Siete Magníficos”), midieron en 1988 junto al el astrofísico teórico Donald Lynden-Bell el movimiento coordinado de varios millones de galaxias a nuestro alrededor. Los Siete Samuráis llegaron a la conclusión de que el conjunto, la Vía Láctea entre ellas, se mueve a la tremenda velocidad de 600 km/s, es decir, 2.160.000 kilómetros por hora e imaginaron a «El Gran Atractor» como una gran masa oscura y esférica, pero resulto un conglomerado de material galáctico y estelar que ejerce un potente efecto gravitacional a 250 millones de años luz de la Tierra. Este estudio motivo posteriormente a otro donde el conjunto del Supercumulo de Virgo se identificó pertenecer a una acumulación mayor de galaxias llamada Laniakea (publicado en un artículo de Richard Tully en Nature y nombrada asi desde 2013 por la Dra Helene Courtois del IPNL coautora del mismo) que consta de cuatro supercúmulos de galaxias: el de Virgo, el de Hidra-Centauro, el del Centauro y el meridional. Todo Laniakea en su conjunto se mueve arremolinándose internamente como en un desagüe hacia una zona del espacio cerca su núcleo gravitacional del sistema que es el denominado ”El Gran Atractor” próximo al cumulo de Norma (en la constelación de Norma (Abell 3627)) y dentro de la región del supercúmulo Hidra-Centauro. Sin embargo existe un problema al observar al centro de “El Gran Atractor” en el espectro visible, pues se localiza en el sector donde las densidades del disco de polvo de la Vía Láctea y su enorme confluencia de estrellas absorben y dispersan el 20% del espectro.

En la imagen se observa como las estructuras de Laniakea se mueven convergiendo a la región del espacio llamada “El Gran Atractor”.

Pero más atrás de «El Gran Atractor» desde nuestra perspectiva, hay otra región que es también responsable de la atracción de nuestra galaxia.

El Supercúmulo y Atractor de Shapley. Movimiento hacia y desde el dipolo atractor y repulsor. ^

Figura 18 Supercúmulo y Atractor de Shapley en el Universo Local

Se detectó con el tiempo, que todo el conjunto de Laniakea se mueve hacia otra región externa a ella llamada el “atractor de Shapley”. Este movimiento se toma en cuenta con marco de referencia fijo la esfera que se nuestro máximo límite de observación: el “fondo cósmico de microondas”. El Supercúmulo de Shapley descubierto en la década de 1930 por el astrónomo estadounidense Harlow Shapley, semejante a una nube ovalada de galaxias, está compuesto por 44 clusters (agrupamientos o racimos) menores, que emanan rayos X como indicio de gas a temperaturas superiores a los 10 millones de grados Celsius. Esta estructura se observa en nuestro cielo a 650 millones de años luz en dirección de la constelación de centauro, visible únicamente en el Hemisferio Sur terrestre. Y en nuestro caso, no solamente nuestra galaxia está atraída hacia la Concentración de Shapley, sino que también es empujada por un vacío desprovisto casi totalmente de materia visible e invisible, llamado el “Dipolo Repulsor”.

En la imagen se observa como las estructuras del universo Local se mueven convergiendo a la región del espacio llamada “El Atractor de Shapley”.

Desde el límite del universo local hasta el límite del universo Observable. ^

Figura 19 Universo Local dentro del universo Observable, y representación de estructuras identificadas entre estos dos limites.

Las estructuras anteriores, forman parte de una numerosa cantidad identificadas por los científicos, como por ejemplo La gran muralla del sur, Hércules, entre otras, ellas constituyensolo el conocido universo local, comúnmente observado y estudiado por variados telescopios y radiotelescopios, tanto en tierra como en el espacio , que observan en el espectro visible, infrarrojo, gamma, rayos X, entre otros y con los que se implementan técnicas que van desde el paralaje hasta el corrimiento al rojo para determinar la velocidad y distancia de cada estructura. Ese universo local es el más estudiado con las estructuras identificadas en la imagen, en un Radio desde nosotros hasta unos 652MMa.l., (o 200Mpc (MegaParsec)).

Pero no termina allí, más allá de ese Radio se han detectado otras estructuras realmente más enormes y que en teoría no deberían existir, en principio no deberían ser de más de 300 millones de años luz, lo que se conoce como el “Fin de la Grandeza” pues no deberían tener cohesión y deberían homogeneizarse, razón por la están en contra del «principio cosmológico». Sin embargo más allá de universo local y antes del universo observable encontramos estructuras identificadas como el Proto-supercumulo, Arco Gigante y la más grande de todas: Gran Muralla de Hércules-Corona Borealis, cuyo tamaño se estima casi de 6 a 10 mil MM a.l., casi comparable con la distancia que hay hasta el límite del universo Observable que esta a más de más de 13 mil MM de a.l

El límite del «Universo Observable» y más allá de el… ^

 

Figura 20 Representación de lo que existiría más allá del universo observable : a) universo local, b) límite del universo observable, c) limite hipotético y probable del universo. Arco Gigante: situada a 9200MM a.l. con 3600MM a.l. de longitud.

En la ilustración :
a 11500 MM a.l el Proto Supercumulo con al menos 160MM a.l. de longitud (otros cálculos estiman de 200x200x500 MM a.l.)
a 13800 MM (límite del universo Observable) ) Galaxias que emitieron Radiación de Microondas. Calculado en base al tiempo de emisión y velocidad de la luz –(se estima que esa La luz que nos llega se emitió 380000 años después del BigBang )
a 16000 MM Horizonte de Eventos
a 46500MM (14.26 GPc) (límite del universo Observable) Galaxias que emitieron Radiación de Microondas. Calculado en base a distancia y tiempo cosmológico por la expansión del universo. Es la distancia en que se estima que actualmente se encuentran esas galaxias.

Así alejándonos, llegamos al límite del «Universo Observable» una esfera con radio a 13800MM a.l. (Millones de años luz), lo que es igual a lo que ha recorrido la luz desde el momento que «se cree» que se creó el universo, y es desde donde se ve el «ruido de microondas» del BigBang , descubierto fortuitamente a principios de los 60, y cuya radiación llega prácticamente uniformemente desde todos los lados de esa esfera. En este punto hay que decir unas cosas. El Bigbang «se cree» que ocurrió en algún lugar desconocido más allá de ese límite, por lo que se desconoce por lo tanto lo que existe o existió a ciencia cierta más allá. El universo se expande y se acelera en la misma medida (como los recuadros en verde de la ilustración) , por eso aunque la radiación de galaxias primigenias que nos llega, nos dice que el bigbang ocurrió en poco más de 13800MMa.l., de distancia, pero por la expansión del universo se calcula que aquellas galaxias que en ese punto originaron la “radiación de fondo” está realmente en la actualidad a una distancia comovil de 46.000MMa.l., así como también en el caso de la Gran Muralla de Hércules-Corona Borealis, que está situado a más de 10 mil MM a.l. de nuestra posición de acuerdo a nuestra visión actual y mediciones, pero en realidad se estima que tiene una ubicación comovil a unos 16 mil MM de a.l, a esta distancia esta aproximadamente en el borde del horizonte de eventos, ( después de sobrepasar este borde la radiación que genere a partir de ese momento, motivado a la velocidad alcanzada por la expansión del universo, nunca alcanzara al sistema solar, ya no será observable desde nuestra posición). Ahora, en fin, el limite definitivo del Universo aunque realmente desconocido, se ha estimado en una distancia que se escribe como una cifra de alrededor de 15 mil millones acompañado de 24 ceros … de años luz.

Telefonia Movil. Evolución y Tecnologías desde el 0G.


Familias

0G

(radiotéléfono)

PTT · MTS · IMTS · AMTS
0,5G Autotel/PALM · ARP
1G Familia AMPS AMPS · TACS
  Otros NMT · Hicap · CDPD · Mo bitex · DataTac · RC2000 · C-NETZ · Comvik · NTT
2G Familia GSM/3GPP GSM · CSD
   Familia 3GPP2 CDMAOne (IS-95)
  Familia AMPS D-AMPS (IS-54 y IS-136)
  Otros DECT · DCS 1800 · iDEN · PDC JDC
2G de transición(2,5G et 2,75G) Familia GSM/3GPP HSCSD · GPRS · EDGE/EGPRS
 Familia 3GPP2 CDMA 2000 1xRTT (IS-2000)
Otros WiDEN
3G(IMT-2000)  Familia 3GPP W-CDMA (UMTS y FOMA) · TD-SCDMA
 Familia 3GPP2 CDMA 2000 1xEV (IS-856)
3G de transición(3,5G, 3,75G et 3,9G)  Familia 3GPP HSDPA · HSUPA · HSPA+ · LTE (HSOPA)
 Familia 3GPP2 EV-DO: Evolution-Data Optimized (rev. A et B)
Otros WiMAX (IEEE 802.16e-2005) · IEEE 802.20 (iBurst)
4G(IMT-Advanced)  Familia 3GPP LTE-Advanced
 Familia WiMAX IEEE 802.16m

Evolucion

Algunos análisis sostienen que a partir de la 1G, las generaciones han durado alrededor de 18 a 20 años desde la comercialización inicial hasta el momento del pico de volumen, a la vez que desde el comienzo de una generación a otra pasan alrededor de 9 a 10 años, en tal caso
1G inicio en: 1979, volumen pico en: 2002
2G inicio en: 1991, volumen pico en: 2008
3G inicio en: 2001, volumen pico en: 2018
4G inicio en: 2011, volumen pico en: 2028 (estimado)
5G inicio en: 2020, volumen pico en: 2038 (estimado)

La implementación del los Microcontroladores le dio el impulso al desarrollo de estas tecnologías.
La implementación de los DSP (Digital Signal Processing) dio el impulso a desarrollo y mejora continua dela tecnologia de redes 2G

Evolución de la red GSM /UMTS

Las tecnologías dentro de la red GSM/UMTS que permiten habilitar datos móviles son:
-GSM (Sistema Global para Comunicaciones Móviles) para servicios de segunda generación (2G)
-UMTS (Sistema Universal de Telecomunicaciones Móviles) para servicios de tercera generación (3G), la evolución del GSM.

Las tecnologías dentro de la red UMTS que permiten habilitar datos móviles son.
-HSCSD, GPRS  y EDGE (en 2G para GSM-900 y GSM-1800)
-W-CDMA (que fue la variante de CDMA para UMTS), el HSPA y el Evolved HSPA (HSPA+). (en 3G para redes UMTS)
-LTE (Long Term Evolution) y New Radio (NR) (en 4G y 5G)

Evolución de la red CDMA

-Las redes en América se desarrollaron en base al CDMA
Las tecnologías de red móvil CDMA que pueden admitir datos móviles.
#IS-95 (comercialmente “cdmaOne”) (2G)
#CDMA2000 (3G)
#EVDO (EVolution Data Optimized) es una mejora al CDMA2000.
#LTE (Long Term Evolution) y New Radio (NR) (4G) y (5G), las mismas que para GSM.

Las Frecuencias

Es conocido el uso del espectro:

    • 30 a 300 MHz  VHF. telefonía móvil, (no está en 5G)
    • 300 MHz a 3 GHz, banda UHF, también tienen aplicaciones en transmisiones de TV y GPS hasta Wi-Fi, teléfonos inalámbricos y Bluetooth.
    • 30 GHz y 300 GHz (parte de la banda EHF) banda milimétrica, también tienen aplicaciones en áreas como la radioastronomía, las telecomunicaciones y las pistolas de radar.

Antes con  2G y 3G, los espectros de frecuencia de 850 MHz y 1900 MHz se usaban para operar las redes del Sistema Global para Comunicaciones Móviles (GSM).

Con la llegada de 3G se agregaron nuevas bandas de frecuencia y un espectro de casi 2100 MHz.

Con la llegada de 4G, se agregaron nuevas bandas de frecuencia que van desde los 600 MHz o 700MHZ hasta los 2,5 GHz : una torre de banda baja (700 MHz) puede cubrir cientos de kilómetros cuadrados.

Con 5G se opera en tres bandas espectrales diferentes

5G operara en los rangos de los Sub-6 (entre 450 MHz y 6 GHz, que incluye todos los rangos  de celulares previos), Banda C (de 3.3GHz a 4.2GHz ,entre Sub-6 y mmWave,),  mmWave (de 24 GHz a 52 GHz por encima sub-6,)

En las bandas de frecuencia para 5G New Radio (5G NR), última versión publicada (Rel. 17) del respectivo 3GPP (TS 38.101), las bandas NR se definen con el prefijo «n»:

#En primer lugar, está el rango de frecuencia 1 (FR1) que incluye bandas de frecuencia inferiores a 6 GHz (incluidas CBRS y LAA), algunas de las cuales se utilizan tradicionalmente en estándares anteriores, pero se han ampliado para cubrir posibles nuevas ofertas de espectro de 410 MHz a 7125 MHz.

  • Banda baja: 600 MHz, 800 MHz, 900 MHz: usan las conexiones 4G LTE. ofrece una gran área de cobertura y penetración en las paredes.  velocidades máximas son más lentas (con 5G rondarán los 100 Mbps). antenas de banda baja son buenas para cubrir áreas de hasta varios kilómetros – ya sean grandes parches de ciudad, áreas residenciales o extensiones rurales. Por otra parte el espectro de frecuencias bajas y medias está muy saturado
  • Banda media: 2.5 GHz, 3.5 GHz, 3.7-4.2 GHz: velocidades más rápidas y menor latencia que la banda baja. Sin embargo, no logra penetrar en los edificios con la misma eficacia que el espectro de banda baja. Se esperan velocidades máximas de hasta 1 Gbps en el espectro de banda media.
    *Para contrarrestar la baja penetración, muchos operadores van a utilizar la tecnología Massive MIMO para mejorar el alcance penetración y el área de cobertura en la banda media.
    *Massive MIMO agrupa múltiples antenas en una sola caja o célula para crear múltiples haces simultáneos a diferentes usuarios. Esto envía una única señal enfocada a cada usuario de la célula

#El otro es el Rango de frecuencia 2 (FR2), [que incluye bandas de frecuencia de 24,25 GHz a 52,6 GHz. a lo largo de conjuntos de antenas de formación de haces para multiplexación espacial.

  • Banda alta (onda milimétrica): 24 GHz, 28 GHz, 37 GHz, 39 GHz, 47 GHz:  Estas altas frecuencias hacen que la banda de frecuencia 5G sea muy compleja
    -ofrece el mayor rendimiento en 5G (hasta 10 Gbps y una latencia extremadamente baja),
    -las señales son muy sensibles a las variables externas, ya sea paredes, árboles, hojas de los árboles o incluso la lluvia interrumpen la cobertura..
    -tiene un área de cobertura baja puede cubrir un radio de solo un par de kilómetros y la penetración en los edificios es pobre.
    -El sacrificio de la penetración y el área de cobertura para la alta velocidad, dependerá de muchas células pequeñas, como estaciones base de baja potencia que cubren pequeñas áreas geográficas y pueden combinarse con formación de haces para reforzar la cobertura.,
    -las antenas se usan para despliegues pequeños y específicos como dentro de un estadio..
    -Este espectro de frecuencias es un recurso relativamente sin explotar..

En EE.UU 5G  operara en la banda de 4G (700MHZ hasta los 2,5 GHz) y en banda de mmWave entre  28-39 Giga Hertz (GHz)

No es posible reemplazar 4G con 5G inmediatamente, por lo tanto, 5G y 4G compartirán el espectro de frecuencias. TDD (dúplex por división de tiempo, hay una banda de frecuencia y un requisito para cambiar entre enlace ascendente y enlace descendente) y FDD (dúplex por división de frecuencia, hay diferentes bandas de frecuencia, por lo que se puede usar una para el enlace descendente y otra para el enlace ascendente sin necesidad de cambiar entre ellas) pueden compartir el espectro de frecuencia: En el, según el requisito.En tanto tomará casi 10 ms asignar las bandas entre 4G y 5G, según una patente estadounidense asignada a AT&T.

Velocidades

banda ancha fija y banda ancha móvil

En 5G ambas tecnologías de red son capaces de satisfacer las necesidades de Internet de los clients
El enlace descendente (Down) se refiere a la transmisión desde la estación base a la estación móvil. El enlace ascendente (Up) se refiere a la transmisión desde la estación móvil a la estación base.

Velocidad máxima de datos (Carga y Descarga)

En las comunicaciones móviles,definen los límites teóricos máximos de lo que puede ofrecer una determinada tecnología celular.

La velocidad máxima de descarga de datos para redes
2G GSM es de 384 kbps utilizando la tecnología EDGE; l
3G UMTS en HSPA evolucionado (HSPA+) es de 42 Mbps;
4G LTE Advanced Pro es de 3 Gbps; 5G NR es superior a 10 Gbps. (La velocidad máxima de descarga que se puede alcanzar es de 20 Gbps.)
Se ha informado que las velocidades de Internet móvil alcanzan 1 Gbps en mmWave

velocidades medias de datos.

En la vida real, las velocidades que normalmente obtenemos son las velocidades promedio, que son considerablemente más bajas que las velocidades máximas.

2G GSM es de 30-50 kbps utilizando la tecnología EDGE;
3G UMTS en HSPA Evolucionado (HSPA+) es de 5-8 Mbps;
4G LTE Advanced es de 50 -80 Mbps; (la red 4G proporciona pocos cientos Mbps, lo que se reduce a 10 Mbps o menos en áreas urbanas con un tiempo de latencia de más de 10 ms.)
5G NR es de 150-200 Mbps. ( 5G tiene como objetivo al menos 100 Mbps en áreas urbanas con un tiempo de latencia de 4 ms.)

mobile network Generacion tecnología celular Velocidad media de datos (descarga) Velocidad máxima de descarga de datos Velocidad máxima de carga de datos
GSM/UMTS 2G HSCSD 15-20 kbps 64 kbps
GSM/UMTS 2G GPRS 30-50 kbps 171,2 kbps
GSM/UMTS 2G EGPRS/EDGE 130-200 kbps 384 kbps
CDMA 2G ES-95 A 14,4 kbps
CDMA 2G ES-95B 115 kbps
GSM/UMTS 3G UMTS 384 kbps 2Mbps 128kbps
GSM/UMTS 3G HSPA 3-5Mbps 14,2Mbps 5.76Mbps
GSM/UMTS 3G HSPA + 5-8Mbps 42Mbps 11.5Mbps
CDMA 3G CDMA2000 (1xRTT) 153 kbps 153 kbps
CDMA 3G EVDO Rev 0 2,4Mbps 153 kbps
CDMA 3G EVDO Rev A 3,1Mbps 1.8 Mbp
CDMA 3G EVDO Rev B 14,7Mbps 5.4 M
CDMA GSM/UMTS 4G LTE 15-20Mbps 300Mbps 75Mbps
CDMA GSM/UMTS 4G LTE-Advanced 50-80Mbps 1 Gbps
CDMA GSM/UMTS 4G LTE- Advanced Pro 60-100Mbps 3 Gb/s
CDMA GSM/UMTS 5G NR (New Radio) 150-200Mbps 10 Gb/s

0G : 1946

Luego de la decacada de los 50, con la electrónica basadad en semiconductores , comenzaron a avolucionar los elementos necesarios para mejorar la tecnoliogia de telefonía móvil.

*Antes de 1946 :SCR de Motorola

Herencia de la comunicación inalámbrica durante la Segunda Guerra Mundial: los walkie-talkies de la serie SCR de Motorola.

Los teléfonos móviles: Se definen como tal porque permitieron la comunicación entre tetminales donde almenos uno de ellos era movil.

*PTT (push to talk , press to transmit)

Pulsar para hablar o pulsar para transmitir ( PTT ) es un método comuicacacion que usa un enlace semidúplex, donde se necesita pulsar un botón para transmitir y soltarlo para cambiar al modo de recepción. En radio transceptores de radioaficionados que consisten en una radio asistida por computadiora (CAT), el comando PTT es una señal electrónica , pasa generalmente través un cable S-232

1946: Sistema MTS (Teléfono móvil para vehículos)_ de AT&T

MTS (Mobile Telephone Service): Los teléfonos móviles en vehiculos fueron introducidos por el American Telephone & Telegraph Company (AT&T) de los Estados Unidos en 1946 después de la II guerra Mundial, Sin embargo, existían limitaciones: en un área determinada con un espectro limitado solo había 11 o 12 canales disponibles, por lo que los usuarios a menudo tenían que esperar para usar el sistema. Asi mismo se cuenta la gran cantidad de energía necesaria para operar por lo que se opto por las baterías de automóviles .

AT&T conecto el transceptor inalámbrico a la red telefónica pública conmutada (PSTN). También lanzó oficialmente el servicio de telefonía móvil MTS (Mobile Telephone Service) para uso civil. El MTS fue el primer sistema de telefonía móvil comercial en la historia, aunque exactamente no fue un teléfono móvil personal debido a las limitaciones de la tecnología electrónica y de las baterías de la época, sino que se dispuso las capacidades de los vehículos para instalarle un teléfono de 80 libras (80lb. car phones). Por otra parte la llamada utiliza comunicación era simplex (o semidúplex) de la misma forma que un walkie-talkie para vehículos, es decir, solo una de las partes puede hablar al mismo tiempo, y el usuario debe presionar el interruptor «pulsar para hablar» en el teléfono. El usuario que deseaba realizar una llamada, primero debia buscar manualmente un canal inalámbrico que este libre. Si obtiene un canal, hablará con el operador y le solicitará a la otra parte que realice una segunda conexión a través de la red PSTN.

El método de cobro o facturación de MTS también fue muy primitivo. El operador escucharía la llamada entre las dos partes durante todo el proceso. Luego calcularía manualmente el costo después de que finalice la llamada y confirmará la factura.

En ese momento, la “estación base” también era muy grande, un poco como una torre de radio y televisión. Solo había uno en una ciudad, ubicado en el centro de la ciudad, cubriendo un radio de 40 kilómetros con una potencia extremadamente alta.

En la década de 1950, más países comenzaron a construir redes telefónicas para automóviles. Por ejemplo:

1952 Sistema A-Netz (Alemania Occidental)

En 1952, Alemania Occidental lanzó A-Netz.

1961 Sistema Altai (Unión Soviética)

En 1961, la Unión Soviética: el ingeniero soviético Leonid Kupriyanovich también inventó el teléfono móvil ЛК-1, que también se instaló en los automóviles. Más tarde, la Unión Soviética introdujo el sistema telefónico para automóviles Altai, cubriendo más de 30 ciudades del país.

1969 (1964) Sistema IMTS (Improved MTS) (USA)

En 1964 AT&T presentó el desarrollo de la mejora del sistema IMTS.
Pero fue en 1969, cuando los Estados Unidos introdujeron sistema de teléfono para automóvil MTS mejorado llamado IMTS (Improved MTS o MTS mejorado) [1] poniendo a disposición 12 nuevos canales[8] que todavía estaba conectado a la red fija (PSTN), este requería igualmente una antena localizada en un lugar elevado y transmitiendo con alta potencia y la movilidad seguía siendo soportada hasta cierto punto[3] pues continuaba siendo basado en vehículos por el peso de las baterías.[8]
IMTS sin embrago admite ahora dúplex completo, marcación automática y búsqueda automática de canales, y puede proporcionar 11 canales (luego 12). Enfrento por su aceptación una alta demanda de un recurso limitado, Siendo su tecnología un salto cualitativo en relación con MTS.

Era 0.5G

1971 ARP (Auto Radio Puhelin) Finlandia.

En 1971, Finlandia lanzó la red pública de telefonía móvil ARP (Auto Radio Puhelin – Puhelin significa teléfono en finlandés). Este dispositivo operaba en la banda de frecuencia de 150 MHz pero aún con conmutación manual y era principalmente para servicios de telefonía para automóviles.[1][3]

En estas tecnologías de Redes de telefonía se centraron en desarrollar un potente sistema de estación base que pudiera enviar señales lo más lejos posible para cubrir una gran área. La cobertura de una sola estación base era de aproximadamente 50 millas o más, lo que era suficiente para abarcar la mayoría de las regiones metropolitanas en ese momento. Dadas las bandas de frecuencia en un área metropolitana, el número muy limitado de suscriptores tenía que usar los canales de comunicaciones móviles al mismo tiempo. Por ejemplo, en toda el área metropolitana de la ciudad de Nueva York en 1976, solo doce canales atendían a 543 suscriptores. Por lo tanto, la mayoría de los usuarios pasaban un tiempo significativo esperando obtener un canal.[5]
Ya sea Altai, IMTS o ARP, este conjunto más tarde se denominó tecnología de comunicación móvil «0G» o «Pre-1G.

Era 1G

La 1ª red de comunicación móvil automatizada comercial fue lanzado por NTT en Japón en 1979, seguida por el lanzamiento del sistema de Telefonía Móvil Nórdica (NMT) en Dinamarca, Finlandia, Noruega y Suecia, en 1981.

La implementacion del los Microcontroladores le dio el impulso al desarrollo de estas tecnologías.

1973 *telefono DynaTAC prototipo de Motorola

En los primeros días, Motorola desarrolló una tecnología RCC (Radio Common Carrier) con lo que ganó mucho dinero y había producido durante mucho tiempo teléfonos móviles para automóviles. Motorola no quería que AT&T tuviera el monopolio de los teléfonos móviles y temía el fin de su negocio móvil. Se habian opuesto firmemente a la liberación de espectro para comunicaciones celulares por parte de la FCC, para no afectar su mercado de RCC. Pero al mismo tiempo, también estaban desarrollando desesperadamente la tecnología de comunicación celular y haciendo reservas técnicas.el Ineniero Martin Cooper fue puesto a cargo del proyecto urgente para desarrollar un teléfono celular. Pensó que el celular no debía estar encadenado al auto sino que debía ser portátil.

Después de que la FCC liberara el espectro, Motorola realizó pruebas en Washington basadas en DynaTAC. Si bien todavía estaban experimentando lentamente, otros países ya habían tomado la delantera.

Luego del descubrimiento del transistor, el avance de la tecnología de semiconductores dio más espacio para el desarrollo en la industria de las telecomunicaciones. Esto no sucedió hasta los años 70. En 1973, se completo uno de  los trabajos de Motorola, entre los ingenieros, dos de ellos:  Martin Cooper (26/12/1928, Chicago , Illinois , EE. UU.) graduado del Instituto de Tecnología de Illinois (IIT) en Chicago y trabajando en Morotola desde 1954, quien a su vez trabajaba para John F. Mitchell, también del Instituto de Tecnología de Illinois, quien se convirtió en 1960 en el ingeniero jefe de productos de comunicación móvil de Motorola y también supervisó el desarrollo y la comercialización del primer buscapersonas que utilizó transistores, Estos dos inventaron el primer teléfono verdaderamente móvil del mundo (un teléfono móvil personal de mano). Ambos luego también estaban entre los empleados de Motorola a los que se les otorgó una patente para este trabajo en 1973. La primera llamada con el prototipo se conectó, según se informa, a un número equivocado. Más tarde Martin Cooper se desempeñó como vicepresidente. y director de investigación y desarrollo (1978-1983) de la empresa.

El resultado El teléfono que se llamo DynaTAC (Dynamic Adaptive Total Area Coverage). Midiendo de alto 22 cm, y pesando 1,28 kg, permitía hablar de 20

El lanzamiento de la versión comercialtuvo que esperar hasta mas tarde, en 1983.

El 3 de abril de 1973, Cooper presentó el teléfono DynaTAC en una conferencia de prensa en la ciudad de Nueva York . Para asegurarse de que funcionaba antes de la conferencia de prensa, hizo la primera llamada de teléfono celular público al ingeniero Joel Engel, jefe del proyecto rival de AT&T, y se regodeó de que estaba llamando desde un teléfono celular portatil[8]

El 1G fue Resultado de  dos elementos: el desarrollo del teléfono móvil personal y el desarrollo del sistema celular.

1974 *(IS-3) Sistema HCMTS (High-Capacity Mobile Telephone System) de Bell Labs/AT&T

Bell Labs es el laboratorio de investigación y desarrollo de la AT&T.

En diciembre de 1947, los ingenieros de AT&T Bell Laboratories, Douglas H. Ring y  W. Rae Young , fueron pioneros en la idea de las Celdas “celular”. Demostraron que en lugar de aumentar ciegamente la potencia de transmisión de la señal, se podían agregar más usuarios móviles dividiendo un área grande en muchas área limitadas (celdas) más pequeñas, controlando o limitando el rango de transmisión de la señal. De esta forma, distintas celdas pueden utilizar la misma frecuencia sin afectarse entre sí, aumentando la capacidad del sistema.

Aunque la idea de la comunicación celular fue buena, en ese momento había muchas limitaciones tecnologicas. Bell Labs lo mantuvo asi como un concepto hasta que lo retomo en 1964.

AT&T fue “privada” del uso comercial de las comunicaciones satelitales por el Congreso de los EE. UU. en 1964. Desesperados, formaron un departamento de comunicaciones móviles en Bell Labs, en busca de nuevas oportunidades.

La idea de Douglas H. Ring requería más cobertura de frecuencias de la que estaba disponible en ese momento. Sin embargo, en 1968, la Comisión Federal de Comunicaciones (FCC) de EE. UU. solicitó a AT&T un plan para emplear una parte poco utilizada de la banda de televisión UHF (frecuencia ultra alta) . Asi AT&T propuso una arquitectura celular para expandir su servicio de telefonía para automóviles[8]

Cada celda tenía una torre para recibir ondas de radio de teléfonos cercanos y transmitirlas a un operador de centralita (que pronto fue reemplazada por interruptores electrónicos). Luego, la llamada se enrutaba a través de líneas físicas a quien quiera que la persona que llamaba intentara comunicarse. Las respuestas en el otro extremo se transfieren de vuelta a través de la misma ruta, a la inversa, y se transmiten desde la torre celular a la persona que llama desde el móvil.

Las diferentes estaciones podían operar en las mismas frecuencias siempre que no estuvieran una al lado de la otra.

__

También de la Bell Labs/AT&T, el ingeniero Amos E. Joel, Jr., ofrece su contribución más importante al campo de las telecomunicaciones con su patente #3,663,762 de 1972 para el Sistema de Comunicaciones Móviles. La que fue incluida en el Salón de la Fama de los Inventores Nacionales en 2008. Esta patente proporciona conmutación celular básica, lo que es un sistema para que las personas que llaman se mantuvieran conectadas incluso cuando se trasladaban de una celda a otra: una «transferencia» de una torre a la siguiente. Este invento fue pionero en el segmento de crecimiento más rápido de la industria de las telecomunicaciones. Fue un invento que aún permite el uso conveniente de teléfonos celulares, haciéndolos esenciales para la estructura de la sociedad actual. [10]
También es importante señalar que debido esta patente para Bell Labs/AT&T, los tribunales otorgaron la asignación de este invento moderno a Bell Labs/AT&T y no a Motorola. Debido a que la patente es anterior a cualquier reclamo erróneo de esta invención por parte de Motorola.[10]

Asi, entre 1964 y 1974, Bell Labs desarrolló un sistema analógico llamado HCMTS (High-Capacity Mobile Telephone System). Los canales de señalización y voz del sistema utilizan modulación FM de ancho de banda de 30 kHz y la tasa de señalización es de 10 kbps.[*]

El Sistema de Telecomunicaciones Móviles de Alta Capacidad (HCMTS), Es un sistema celular, donde el área de cobertura total se divide en una cuadrícula de pequeñas celdas hexagonales. la cobertura de radio de cada celda es de ocho millas para los sistemas de inicio, contemplando que eventualmente se podrían reducirse a una milla (por división de celdas) a medida que aumentaba la densidad del tráfico. Los móviles ubicados dentro de las celdas serian atendidos por transceptores FM de 850 MHz de baja potencia contenidos dentro de los sitios de celdas que están situados en esquinas alternas de cada celda hexagonal. Pudiendose usar dos tipos de antenas en un sitio celular. Un sistema de inicio emplearía antenas omnidireccionales, ya que para este caso la densidad de tráfico es baja y es importante minimizar el costo inicial. Los sistemas maduros de alta densidad emplearían tres conjuntos de antenas direccionales en esquinas alternas de cada sitio celular, dispuestas de tal manera que los 120 grados; haz de cada conjunto de antenas iluminaría el interior de la celda correspondiente. Todos los sitios celulares están interconectados con un centro central de control y conmutación, la Oficina de Conmutación de Teléfonos Móviles (MTSO), por medio de troncales de voz y datos de cuatro hilos. Una llamada desde la red telefónica DDD se enruta primero a la MTSO, luego a través de un enlace de voz al sitio de la celda que va a servir al móvil, y finalmente a través de un canal de radio disponible al móvil al que se llama. En el establecimiento de la llamada, el móvil se localiza midiendo la intensidad y el alcance de la señal recibida. Durante la llamada el móvil puede cambiar de ubicación varias veces por minuto. Si el móvil ingresa a una nueva celda, se «entrega» a un nuevo sitio de celda y canal de radio mediante comandos digitales del MTSO.

Dado que no había una organización de estandarización para sistemas móviles inalámbricos en ese momento, AT&T estableció su propio estándar para HCMTS. Posteriormente, la Asociación de Industrias Electrónicas (EIA) denominó a este sistema Interim Standard 3 (IS-3).

 

1976 *AMPS (Advanced Mobile Phone Service). AT&T

Para el desarrollo de este sistema fueron importantes dos contribuciones que aun perduraron en los sistemas mas modernos: El concepto de celda o celular (de Douglas H. Ring y  W. Rae Young)y el reúso de frecuencias entre celdas con la conmutación automática entre  ellas (por Amos E. Joel, Jr).

De 1968 a 1983 Bell Labs trabajo en el AMPS en base a la patente que publicaria  Amos E. Joel, Jr
En 1976, HCMTS cambió su nombre a AMPS (Advanced Mobile Phone Service). AT&T está utilizando la tecnología AMPS para realizar pruebas de FCC en Chicago y Newark.
Existirian vadiados investigaciones como el de 1978 (17 de Julio ) de V. H. Mac Donald, de Bell Labs, quien elabora y remite un manuscrito:  Advanced Mobile Phone Service: The Cellular Concept, que seria publicado en 1979, contribuyendo a sentar las bases de lo que seria el AMPS

1977 *(1974) pruebas de redes celulares

En 1974, la Comisión Federal de Comunicaciones (FCC) aprobó parte del espectro de radiofrecuencia para su uso en pruebas de redes celulares. Sin embargo, el experimento se retrasó hasta 1977 antes de que comenzara oficialmente. En ese momento, los dos rivales AT&T y Motorola estaban involucrados en el experimento.

1979–Sistema del NTT-Primera Implementación- Japón (NTT)

En el 1 de diciembre de 1979, Nippon Telegraph and Telephone (NTT) lanzó el primer sistema de comunicación celular automatizado comercial del mundo en el área metropolitana de Tokio. Posteriormente, este sistema se consideró la primera red comercial 1G del mundo.

-Una red celular con 88 sitios celulares con estaciones base o torres de radio que cubren todos los distritos de Tokio (a diferencia de IMTS donde la red todavía era PSTN);
-Se admitió el traspaso de la llamada entre diferentes sitios celulares (a diferencia de IMTS, donde la llamada solo se puede conectar a una antena de radio);
-Conmutación automática sin necesidad de un operador de centralita humano (a diferencia de ARP, donde las llamadas se conmutan manualmente).
Asi en ese momento, el sistema tenía 88 estaciones base, que admitían el cambio de llamadas totalmente automático entre diferentes sitios celulares sin intervención manual. El sistema adopta la tecnología FDMA, el ancho de banda del canal es de 25 KHz, está en la banda de frecuencia de 800 MHz y el número total de canales dúplex es de 600.

1981–Sistema del NMT Noruega y Suecia y otros (NMT)

Dos años más tarde, en 1981, los países nórdicos, Noruega y Suecia, establecieron la primera red móvil 1G de Europa: NMT (Teléfonos Móviles Nórdicos). Poco después se unieron Dinamarca y Finlandia. NMT se convirtió en la primera red de telefonía móvil del mundo con capacidades de roaming internacional.

Utiliza una frecuencia de 450 MHz (luego cambió a 800 MHz) y con una rango de celda bastante amplia.

Más tarde, Arabia Saudita, Rusia y algunos otros países bálticos y asiáticos también introdujeron la NMT.

1983 Sistema AMPS (AT&T)

Asi AMPS fue desarrollado originalmente por Bell Labs y posteriormente modificado en un esfuerzo cooperativo entre Bell Labs y Motorola. [2]
AMPS fue presentado en 1983 en Chicago para ser implementado con el teléfono de Motorola.[8]
AMPS fue revolucionario ya que permitió muchos usos simultáneos por torre y transferencia automática de torre a torre automáticamente (dentro de lo razonable, por el momento). AMPS reemplazó efectivamente al Sistema de telefonía móvil (MTS) y al Sistema de telefonía móvil mejorado (IMTS). [2]

Características

-AMPS utiliza FDMA (frequency division multiple access)  o Acceso Múltiple por División de Frecuencia,donde cada canal se puede asignar a un solo usuario a la vez en frecuencias independientes, o «canales», para cada conversación. Por lo tanto, requería un ancho de banda considerable para un gran número de usuarios. En términos generales, AMPS era muy similar al antiguo Servicio de telefonía móvil mejorado «0G» al que reemplazó, pero usaba considerablemente más poder de cómputo para seleccionar frecuencias, transferir conversaciones a líneas fijas y manejar la facturación y la configuración de llamadas.
-Lo que realmente separó a AMPS de los sistemas más antiguos es la funcionalidad de configuración de llamadas «back-end«.
-En AMPS, los centros celulares podrían asignar canales de manera flexible a los teléfonos en función de la intensidad de la señal, lo que permite reutilizar la misma frecuencia en varios lugares sin interferencias. Esto permitió admitir una mayor cantidad de teléfonos en un área geográfica. Los pioneros de AMPS acuñaron el término «celular» debido a su uso de pequeñas «células» hexagonales dentro de un sistema.

Asignación de Frecuencias:

Al inicio de la telefonía celular en 1983, la FCC asigno un ancho de banda de 40 MHz para AMPS en la banda de frecuencia de 800 MHz. había otorgado a cada operador dentro de un mercado 333 pares de canales (666 canales en total dúplex emparejados y el ancho de banda de un solo canal ascendente o descendente es espaciado por 30 KHz.).

El rápido crecimiento del número de usuarios supero con creces la capacidad de la red AMPS.
A fines de la década de 1980, la base de suscriptores de la industria celular había crecido a millones en todo Estados Unidos y se hizo necesario agregar canales para obtener capacidad adicional.

En 1989, Posteriormente, la FCC asignó un ancho de banda adicional de 10 MHz. a los operadores Por lo tanto, el número total de canales dúplex de AMPS se convierte de los 666 canales anteriores a un total en 832 canales dúplex (416 pares por operador).Operado en la banda Celular de 850 MHz. Para cada área de mercado, la Comisión Federal de Comunicaciones de los Estados Unidos (FCC) permitió dos licenciatarios (redes) conocidos como operadores «A» y «B». Cada operador dentro de un mercado utilizó un «bloque» específico de frecuencias que constaba de 21 canales de control y 395 canales de voz. Originalmente, la licencia del lado B (alámbrico) generalmente era propiedad de la compañía telefónica local, y la licencia A (no alámbrica) se otorgaba a los proveedores de telefonía inalámbrica.

Las frecuencias adicionales eran de la banda mantenida en reserva para futuras (inevitables) expansiones. Estas frecuencias estaban inmediatamente adyacentes a la banda celular existente. Estas bandas se habían asignado previamente a los canales de televisión UHF 70–83.
Asi, cada canal dúplex estaba compuesto por 2 frecuencias. 416 de estos estaban en el rango de 824 a 849 MHz para transmisiones desde estaciones móviles a estaciones base, junto con 416 frecuencias en el rango de 869 a 894 MHz para transmisiones desde estaciones base a estaciones móviles. Cada sitio celular usó un subconjunto diferente de estos canales que sus vecinos para evitar interferencias. Esto redujo significativamente la cantidad de canales disponibles en cada sitio en los sistemas del mundo real.
Cada canal AMPS tenía un ancho de banda unidireccional de 30 kHz, para un total de 60 kHz para cada canal dúplex.
El AMPS uso modulación analógica FM, diseñado desde el principio para admitir unidades de suscriptor para uso en el automóvil como para peatones.

Se aprobaron leyes en los EE. UU. que prohibían la aceptación y venta ( bajo lo establecido por la FCC) de cualquier receptor que pudiera sintonizar los rangos de frecuencia ocupados por los servicios celulares analógicos AMPS. Aunque el servicio ya no se ofrece, estas leyes siguen vigentes.[2]

El fin del 1G

En 2002, con el avance de la tecnologia de 2G, la FCC decidió no requerir más que los operadores A y B admitan el servicio AMPS a partir del 18 de febrero de 2008.

En Canadá A diferencia de los Estados Unidos, la Comisión Canadiense de Radio, Televisión y Telecomunicaciones  e Industria de Canada (CRTC)no habia establecido ningún requisito para mantener el servicio AMPS en Canadá. Rogers Wireless desmantelo su red AMPS (junto con IS-136 o TDMA); las redes se cerraron el 31 de mayo de 2007. Bell Mobility y Telus Mobility, que operaban redes AMPS en Canadá, anunciaron que observarían el mismo cronograma establecido por la FCC en los Estados Unidos y, como resultado, no comenzarían a desmantelar sus redes AMPS hasta después de febrero de 2008.

OnStar dependía en gran medida del servicio AMPS norteamericano para sus suscriptores porque, cuando se desarrolló el sistema, AMPS ofrecía la cobertura inalámbrica más completa de los EE. UU. En 2006, ADT solicitó a la FCC que extendiera la fecha límite de AMPS debido a que muchos de sus sistemas de alarma todavía usan tecnología analógica para comunicarse con los centros de control. Las empresas de telefonía celular que poseen una licencia A o B (como Verizon y Alltel) debían brindar un servicio analógico hasta el 18 de febrero de 2008. Después de ese momento, sin embargo, la mayoría de las empresas de telefonía celular estaban ansiosas por cerrar AMPS y utilizar los canales restantes para los servicios digitales. OnStar hizo la transición al servicio digital con la ayuda de la tecnología de transporte de datos desarrollada por Airbiquity, pero advirtió a los clientes que no podían actualizarse al servicio digital que su servicio vencería permanentemente el 1 de enero de 2008.[2]

Debilidades

AMPS sufría de muchas debilidades en comparación con las tecnologías digitales actuales. Como estándar analógico, era susceptible a la estática y al ruido, y no había protección contra las «escuchas» mediante un escáner.
• El procedimiento de autenticación AMPS original, basado en la verificación de números de serie electrónicos, fue probado ser vulnerable al fraude.

Expansión

En América, se introdujo oficialmente El 13 de octubre de 1983
Israel en 1986,
Australia en 1987,
Singapur en 1988 y
Pakistán en 1990. Fue el principal sistema de telefonía móvil analógica en América del Norte (y otros lugares) durante la década de 1980 y en la década de 2000.

A partir del 18 de febrero de 2008, los operadores en los Estados Unidos ya no estaban obligados a admitir AMPS y compañías como AT&T y Verizon Communications descontinuaron este servicio de forma permanente.
AMPS se suspendió en Australia en septiembre de 2000,
en Pakistán en octubre de 2004,
en Israel en enero de 2010 y
en Brasil en 2010.[2]

1983 –USA (Ameritech) Teléfono DynaTAC 8000X (comercial-Motorola) y Sistema AMPS (AT&T)

En 1983, Estados Unidos, en retrospectiva, finalmente se acordó de desarrollar su propia red comercial 1G.

En septiembre de 1983, Motorola lanzó el primer teléfono móvil comercial del mundo, DynaTAC 8000X. Midiendo -23 cm(9 pulgadas),pesando 1,1 kg (2,5 libras) Este dispositivo pesa 1 kg, permitía hablar de 30 a 35 minutos, , aun cuando la recarga de la batería duraba 10 horas. Este teléfono recibió el apodo “El ladrillo» (The Brick), pero el precio es tan alto como $ 3995.(USD 10300 al 2021)

El 13 de octubre de 1983, Ameritech Mobile Communications Company, (Ameritech), una empresa que se separó del monopolio de Bell System antes de que AT&T la adquiriera, lanzó la primera red 1G en los Estados Unidos basada en tecnología AMPS [1] Al mismo tiempo, que se introdujo el primer teléfono móvil de mano inventado por Martin Cooper y fabricado por Motorola.[2]

Esta red puede utilizar tanto el teléfono del coche como el DynaTAC 8000X. En el primer año de uso comercial, Americitech vendió aproximadamente 1200 teléfonos móviles DynaTAC 8000X, acumulando 200 000 usuarios. Cinco años más tarde, el número de usuarios se convirtió en 2 millones.
Para 1998, los teléfonos celulares y servicios similares representaban hasta dos tercios de los ingresos de Motorola. [6]

1984 NMT 450 -Malasia

En 1984, Malasia adoptó el estándar NMT 450 y lanzó su primera red celular por entonces Jabatan Telekom (ahora Telekom Malaysia, privatizada en 1987), con teléfonos móviles introducidos como ATUR 450.[3]

1985 TACS Reino Unido (Motorola/ Ericsson)

Además de NMT y AMPS, otro estándar 1G ampliamente utilizado y basado en tecnología AMPS es TACS (Total Access Communication Systems), que se lanzó por primera vez en el Reino Unido.

En 1983 Sistema TACS es anunciado en el Reino Unido (Motorola):
En febrero de 1983, el gobierno británico anunció que las dos empresas, BT (British Telecom) y Racal Millicom (predecesora de Vodafone), construirían redes de comunicaciones móviles TACS basadas en tecnología AMPS. Su implementación final esperaría hasta el 1985

El 1 de enero de 1985, Vodafone lanza oficialmente el servicio TACS (equipo adquirido a Ericsson). En ese momento, solo había 10 estaciones base que cubrían toda el área de Londres.

El ancho de banda de un solo canal de TACS es de 25 KHz, el enlace ascendente usa 890-905 MHz, el enlace descendente 935-950 MHz, se usa un total de 600 canales para transmitir señales de voz y control. también se utiliza FDMA

El sistema TACS está desarrollado principalmente por Motorola y en realidad es una versión modificada del sistema AMPS. Excepto por la banda de frecuencia, el espacio entre canales, el desplazamiento de frecuencia y la tasa de señalización, son completamente iguales.
El estándar European Total Access Cellular System (TACS, más tarde rebautizado como ETACS) se introdujo en 1985 y se implementó por primera vez en el Reino Unido. Después de la primera red celular comercial de NTT.

Ventajas

La ventaja de TACS es la capacidad, no la distancia de cobertura. El sistema TACS tiene una baja potencia de transmisión y es adecuado para un país con una alta densidad de población y grandes áreas urbanas como el Reino Unido.

En comparación con NMT en el norte de Europa, las características de rendimiento de TACS son significativamente diferentes. NMT es adecuado para el entorno rural escasamente poblado de los países nórdicos (Escandinavia). Utiliza una frecuencia de 450 MHz (luego cambió a 800 MHz) y tiene un rango de celda más grande.

ETACS (Extended TACS)

A medida que aumentó el número de usuarios, TACS luego agregó algunas bandas de frecuencia (10MHz) y se convirtió en ETACS (Extended TACS).

1987 TACS China

China,lanzó su primera red móvil en 1987 por el Ministerio de Correos y Telecomunicaciones de China, utilizando el estándar TACS. la primera estación base de comunicaciones móviles construida por China en Guangzhou en 1987 utilizó tecnología TACS y el socio fue Motorola. Al año siguiente se completó una red nacional[3]

1988. JTACS Japón

JTACS se introdujo más tarde en Japón en 1988. El NTT japonés desarrolló JTACS basado en TACS

1991 NAMPS (Motorola)

En 1991 Motorola introdujo una versión de banda estrecha de la tecnología AMPS, a saber, NAMPS, Para el Mercado de celulares de la banda de 800-MHz y el emergente mercado de la banda de  1.9-GHz, el cual es un esquema de acceso multiple por división de frecuencia (frequency division multiple access  – FDMA) Como un primer enfoque, analógico FM, para incrementar la capacidad del servicio, Este divide el canal de voz de 30 KHz existente en tres canales de 10 KHz (el número total de canales se convierte en 832×3= 2496) para ahorrar espectro y ampliar la capacidad. Sin embargo esta propuesta fue superada por la del uso del protocolo de TDMA (IS-54) de la TIA (protocolo que posteriormente se convirtió en IS-136 para así formar parte del D-AMPS) y seleccionada por la Cellular Telecommunications Industry Association (CTIA) que daría origen a la era del 2G

Otros Sistemas y Operadores

Además de AMPS, TACS y NMT, la tecnología 1G también incluye C-Netz en Alemania, Radiocom 2000 en Francia y RTMI en Italia. Estas tecnologías florecientes anunciaron la llegada de la era de las comunicaciones móviles. En realidad, en la industria de las telecomunicaciones, no existía el nombre 1G en el momento en que se utilizó. Fue solo después de la aparición de la tecnología 2G que se les llamó 1G para distinguirlos.

Los diferentes estándares de 1G en todo el mundo:

En 1982 se empleó el servicio de telefonía móvil avanzada (AMPS) en los Estados Unidos y luego se utilizó en Canadá, América Central, América del Sur, Australia, Argentina, Brasil, Birmania, Brunei, Bangladesh, China, Camboya, Georgia, Hong Kong, Indonesia , Malasia, Kazajstán, México, Mongolia, Nauru, Nueva Zelanda, Pakistán, Guinea, Filipinas, Rusia, Singapur, Corea del Sur, Sri Lanka, Tayikistán, Taiwán, Tailandia, Vietnam, Samoa Occidental.

El Sistema de comunicación de acceso total (TACS) / Sistema de comunicación de acceso total extendido (ETACS) se empleó en el Reino Unido, Emiratos Árabes Unidos, Kuwait, Macao, Bahrein, Malta, Singapur.

Nordic Mobile Telephone-450 (NMT-450) se empleó en Austria, Bélgica, República Checa, Dinamarca, Finlandia, Francia, Alemania, Hungría, Polonia, Rusia, España, Suecia, Tailandia, Turquía y Ucrania.

Nordic Mobile Telephone-900 (NMT-900) se empleó en Chipre, Dinamarca, Finlandia, Francia, Groenlandia, Países Bajos, Noruega, Suiza y Tailandia.

C-NETZ (C-NETZ en alemán se refiere a C Network, que fue la primera red telefónica inalámbrica celular en Alemania) se empleó en Alemania, Portugal y Sudáfrica.

Radiocom2000 fue empleado en Francia.

El sistema móvil de radioteléfono (RTMS) se empleó en Italia

Nippon Telephone and Telegraph (NTT) se empleó por primera vez en Japón y más tarde también se emplearon NTACS (Sistema de comunicaciones de acceso total de banda estrecha) y JTACS (Sistema de comunicación de acceso total japones).[4]

Caracteristicas

Entre las características de los sistemas 1G:
-tenían una capacidad limitada y servían solo a nichos de mercado para el ejército, ciertas agencias gubernamentales y usuarios de industrias especiales (por ejemplo, madereros, capataces de la construcción, agentes inmobiliarios y celebridades).
-En las décadas de 1960 y 1970, este servicio estaba limitado geográficamente y el dispositivo móvil era demasiado grande, por lo que generalmente se montaba en automóviles o camiones; el más pequeño era un modelo de maletín.
-Esta forma de comunicaciones móviles no estaba lista para el desarrollo masivo debido a (1) la capacidad limitada para dar servicio a la población en general, (2) la capacidad tecnológica limitada para cubrir grandes áreas, (3) el gran tamaño del dispositivo móvil y (4) los altos precios de los dispositivos móviles y las tarifas.[5]
-Escuchar a alguien a través de una red 1G fue difícil debido a la baja calidad del sonido.
-La cobertura también fue de mala calidad, con grandes cantidades de ruido estático y crujidos de fondo.
-Tampoco se proporcionó soporte de roaming.
-La seguridad no existía en un canal 1G porque no había encriptación, lo que significaba que cualquier persona con un escáner de radio podía entrar en una llamada.
-La velocidad de descarga de 1G también fue increíblemente lenta y solo alcanzó alrededor de 2,4 kbps .
*Según Wikipedia, Rusia tiene la única red celular 1G aún en funcionamiento[6]

Resumen de la Red de comunicación móvil de Primera generación (1G)

  • Año – 1970 – 1980
  • Estándares – AMPS (Advanced Mobile Phone System).
  • Servicios – Sólo voz
  • Tecnología – analógica
  • Velocidad – 1kbps a 2,4 kbps
  • Multiplexación – FDMA
  • Conmutación – conmutación de circuitos
  • Core Network – PSTN
  • Frecuencia – 800- 900 MHz
  • Ancho de banda de canal RF – 30 kHz. La banda tiene capacidad para 832 canales dúplex, entre los cuales 21 están reservadas para el establecimiento de llamada, y el resto para la comunicación de voz
SISTEMA AMPS  NMT TACS ETACS
Banda de frecuencia 824-894 MHz 890-960 MHz 860-925 MHz 900 MHz
Esquema de acceso múltiple FDMA FDMA FDMA FDMA
Año de introducción 1983 1986 1988 1985
Esquema de modulación FM FM FM  FM

Malas comunicaciones de voz y ninguna seguridad ya que las llamadas de voz se reproducen en las torres de radio.

Era 2G

A medida que los mensajes de texto, las descargas y las conversaciones por teléfono se volvieron más populares, la red 2G condujo a la adopción masiva de teléfonos celulares tanto en el lado del consumidor como en el de las empresas. Sin embargo, a medida que más y más personas comenzaron a usar teléfonos celulares, la demanda de datos se disparó.[6]

Hay 3 formas de ampliar la capacidad de un sistema celular
– Con nuevas bandas espectrales
– Dividiendo las celdas existentes en celdas más pequeñas con la instalacion de nuevas estaciones bases
– Introducir nuevas tecnologías para hacer un uso más eficiente del ancho de banda existente y estaciones base

.

La implementación de los DSP (Digital Signal Processing) dio el impulso a desarrollo y mejora continua dela tecnologia de redes 2G
Los principales estadares fueron:
GSM : el Sistema Global para Comunicaciones móviles (Global System for Mobile communications) unificado por el regulador de normas europeo,
D-AMPS: el sistema digital AMPS  Americano,
PDC ( Personal Digital Cellular )el estándar japonés para celular digital personal, y
IS-95A : el estándar ínterin  95A o CdmaONE (Code Division Multiple Access ONE).

Como esquema de acceso al medio fueron implementados tanto TDMA como FDMA en todos los sistemas 2G, a excepción de CdmaONE que empleo el CDMA.

Características:

-Proporcionó algunos avances significativos en las conversaciones móviles, introduciendo llamadas encriptadas (ya nadie podría ingresar a su llamada no deseada).
-Mejoró la calidad del sonido, reduciendo los ruidos estáticos y crepitantes mientras hablabas. Las velocidades de descarga de 2G también fueron significativamente más rápidas (pero aún increíblemente lentas según los estándares actuales) que las de 1G, con un promedio de aproximadamente 0,2 Mbps durante su vida útil .
-Permitió transferir bits de datos de un teléfono a otro, con ello el acceso a contenido multimedia en los teléfonos móviles , como tonos de llamada y algunas funciones básicas de teléfonos inteligentes.
-Introdujo los mensajes cortos de texto (SMS)de 160 caracteres, y mensajes multimedia (MMS) como nuevas formas de comunicación, usando los canales de control.[6]

Equipos

Los teléfonos celulares populares fueron por ejemplo Nokia 3210 de Nokia o “teléfonos de barra de caramelo”. El cual vendió más de 160 millones de unidades. [6]

GSM (con CDS y HSCSD) (ETSI- Europa)

En 1982, la Comisión Europea de Correos y Telecomunicaciones estableció el un grupo de trabajo para ser responsable del estudio de los estándares de comunicación, al que se denominó “Grupo de Expertos Móviles” que se abreviaba en francés como GroupeSpécialMobile, más tarde el significado de esta abreviatura se cambió a «Sistema global para comunicaciones móviles». Esto es lo que ahora todos conocemos como GMS

El propósito del establecimiento de GSM es establecer un nuevo estándar paneuropeo y desarrollar un sistema de comunicación móvil terrestre público paneuropeo
Presentaron requisitos para el uso eficiente del espectro, sistemas de bajo costo, terminales portátiles y roaming global. Permitio a cualquier usuario de celular de un país europeo operar en otro pais europeo con el mismo equipo. La velocidad de datos máxima era de 9600 bps para servicios de datos en GSM convencional. Pueden reconocerse dos tendencias destacadas: la integración de los servicios de paquetes en las redes GSM y los servicios portadores de transmisión de datos de hasta unos 10 kbps.

– Canales digitales con el esquema FDMA/TDMA/FDD
Los canes de envío y recepción (Forward , Reverse) están en frecuencias separadas (FDD)
Cada Canal puede soportar 8 usuarios en simultaneo usando TDMA, donde cada uno transmite a 13 kbps de voz codificada digitalmente dentro de 200kHz de ancho de banda de la portadora. Se usan 124 portadoras en formato FDMA (sin espacio de guarda entre ellas),sumado dos bandas de 100kHz de guarda que están al inicio y final de banda de trasmisión de 25MHz.
-En esta trasmisión de canales digitales se forma una trama de 40 4.615ms que tiene seis (6 8) intervalos de tiempo (Time Slot) de esquema TDMA de 40/6=6,67 ms 15/26=0.577 ms de duración cada uno.

GSM Usa una Hipertrama de 2048 supertramas
Se implementa dos tipos de supertrama
-Una de 51 multitramas TDMA (de tramas de 26) y 6.125ms
-Una de 26 multitramas TDMA (de tramas de 51) y 6.125ms
Se implementa dos tipos de multitrama ( Um, el canal físico de GSM)
-Una de 26 tramas TDMA y 120ms: 24 para trafico, 1 control, 1 no usada. Usa SACCH y FACCH. Usada para canales de voz
-Una de 51 tramas TDMA y 235ms: se divide en canales lógicos que están programados en el tiempo por BTS. Es usada para señalización y contron de los canales
Asi la trama de 8 slots (para los dos tipos de multitrama) tendrá una duración de 120ms/26~235ms/51~=4.615ms
-Cada Slot de la trama TDMA tendrá  un periodo de (120ms/(8*26))=15ms/26~=0.577ms(577us)

hay 1.9 ms entre el final del “time slot” que se transmite y el comienzo del siguiente “time-slot” que se recibe

Velocidad de transmision y Canales de Trafico

64kbps: Velocidad de muestreo de la voz con 8 bits de resolución a 8KHz de tasa de muestreo (para una voz entendible)
7,95 16 kbps es la velocidad comprimida de la codificación de voz, que es previamente muestreada a 64Kbps en el diseño inicial de GSM. logra una calidad de voz reconstruida similar a la del sistema AMPS analógico que utiliza modulación de frecuencia.
FR o Full Rate
13 kbps  es la velocidad comprimida de la codificación de voz RPE-LPC (Regular Pulse Excited-Linear Predictive Coder) en FR o Full Rate:(36LPC/20ms+9LTP/5ms+47RPE/5ms)= 260bits/20ms=13kbps, (LPC usa 36bits/160muestras)
13 9.6 kbps, y 4.8 kbps. Son las velocidades de un codificador de canal con encriptado y encabezado FEC, para datos o a partir de los datos del codificador de voz.
HR o Half rate
– 6,5 kbps es la velocidad luego de aplicar a la salida del codificador de canal, del estándar de HR o Tasa Media (codificación de tasa media), que reduce la tasa de bits general para cada llamada a y debería proporcionar una calidad comparable a la tasa de 13 kbit/s. El Esta tasa media proporciona una capacidad de canal seis veces mayor que la de AMPS analógicos.
13 4.8 kbps. Es la velocidad de un codificador de canal con encriptado y encabezado FEC, para datos o a partir de los datos del codificador de voz.
(260×2)/40=13kbps Datos de trafico transmitidos por portadora (Full Rate Channel Slots 1y4,o 2y5, o 3y6)
(260×1)/40ms=6.5kbps Datos de trafico transmitidos por portadora Half Rate Channel (1 Slots por trama)

270.833 kbps(~270.8Kbps) es la velocidad requerida para la trasmisión de la interfaz de radio (interface Um, entre MS y BTS) (capa física o L1). GMSK tiene tasa de transmision de 13/48MHz( 270.833 KHz o K símbolos/segundo), GMSK produce 2 simbolos, 1 bit por cada símbolo.(en EDGE se usa GMSK y 8-PSK, 8-PSK tiene tasa de transmision de 812.45 K símbolos/segundo, 8-PSK  produce  8 simbolos , con  3 bit por cada símbolo)
34 kbps Es la velocidad de para cada slot :270kbps/8slots=34kbps/slot
156.25bits/slot: capacidad de Simbolos por Slot 270kbpsx15/26=156bits/slot

La velocidad total de símbolos para GSM a 1 bit por símbolo en GMSK produce. La velocidad de transmisión bruta de un intervalo de tiempo es de 22,8 Kbps.

GSM es un sistema digital con una tasa de bits por aire de 270 kbps.

GSM introdujo el uso de la SIM (Módulo de identidad del suscriptor). Que desde un punto de vista tecnológico, ofrece una mayor flexibilidad al usuario al poder elegir de cualquier operador (en un teléfono desbloqueado). A diferencia de la tecnología basada den CDMA donde la capacidad de identificación del usuario está integrada el dispositivo movil.

En los años siguientes, la Organización Europea de Estándares de Telecomunicaciones (ETSI) pudo completar la formulación de las especificaciones GSM 900MHz y 1800MHz (en DCS),para 1990 que daría entrada a la tecnologías de redes GSM al 2G.

Inicialmente las redes GSM se basaban en una combinación de acceso múltiple por división de frecuencia (FDMA) y acceso múltiple por división de tiempo (TDMA)

Las redes GSM, inicialmente incorporada la tecnología CSD (Datos conmutados por circuitos) que habilitaba con circuitos dedicados, los servicios de Internet móvil.
CSD fue actualizada al HSCSD (datos conmutados por circuito de alta velocidad) ofreciendo, al combinar varios canales de tráfico, velocidades máximas de descarga de datos de hasta 64 kbps.

Cuando se introdujo GPRS, el HSCSD era aún una opción de implementación más económica para los operadores móviles para permitir datos móviles y, por lo tanto, siguió existiendo y evolucionando incluso después de la introducción de la tecnología GPRS.

HSCSD quedo finalmente en desuso siendo reemplazado por la tecnología GPRS.

Con HSCSD hasta 4 slots de una portadora pueden ser usadas por un solo usuario. La tasa promedio de trasmisión por slot llega a ser 9.6 kbps o 14.4 kbps y dependiendo del codificador del canal 38.4 kbps o 57.6 kbps que se habilitan para cada usuario. Estas tasas fueron fácil de incorporar en las existentes redes GSM debido a que sus Core Networks estaban preparados para servicios de datos basados en conmutación de circuitos de 64kbps.

Service Channel coding Modulation Net data rate per slot Maximum data rate
HSCSD (circuit-switched) TCH/F9.6  GMSK  9.6 kbit/s  4 x 9.6 kbit/s = 38.4 kbit/s
TCH/F14.4  14.4 kbit/s  4 x 14.4 kbit/s = 57.6 kbit/s
GPRS (packet-switched) CS-1 (Code rate 0.5) GMSK 9.05 kbit/s 8 x 9.05 kbit/s = 72.4 kbit/s
CS-2 (Code rate 0.67) 13.4 kbit/s 8 x 13.4 kbit/s = 107.2 kbit/s
CS-3 (Code rate 0.75)  15.6 kbit/s 8 x 15.6 kbit/s = 124.8 kbit/s
CS-4 (Code rate 1) 21.4 kbit/s 8 x 21.4 kbit/s = 171.2 kbit/s
ECSD (EDGE) (circuit-switched) TCH/F28.8 8-PSK  28.8 kbit/s 2 x 28.8 kbit/s = 57.6 kbit/s a)
TCH/F43.2 43.2 kbit/s 1 x 43.2 kbit/s = 43.2 kbit/s a)
EGPRS (EDGE) (packet-switched) MSC-5 (Code rate 0.37) 8-PSK 22.5 kbit/s  8 x 22.5 kbit/s = 180 kbit/s
MSC-9 (Code rate 1) 59.2 kbit/s 8 x 59.2 kbit/s = 473.6 kbit/
  1. a) In the case of the circuit-switched services, the maximum data rate on the air interface is 57.6 Kbps

1991 Sistema GSM. Primer 2G(Finlandia)

En 1991, la empresa finlandesa Radiolinja (ahora parte de ELISA Oyj) lanzó la primera red 2G del mundo basada en el estándar GSM.

2G adopta la tecnología digital para reemplazar la tecnología analógica de 1G. Esto mejora enormemente la calidad de la llamada y la estabilidad del sistema. También lo hace más seguro, más confiable y reduce el consumo de energía del equipo.

1992  IS-54 /IS-136 (TDMA) (TIA)

El concepto de TDMA fu sesarrolaldo en la década de los 1960 para el uso en los sistemas de comunicación por satélite y el primero comenzó operaciones a mediados de los 1970.

En los sistemas de telefonía, la migración de FDMA a TDMA ocurrio en los sistemas  2G. El primer sistema que adopto TDMA fue GSM para soportar el roaming internacional. L adopción de la voz digital en el formato TDMA facilito la implementación de redes, mejora la calidad de la voz y provee un formato flexible para integrar los servicios de datos en la red celular. En los Estados Unidos fue inicialmente implementado en el IS-54  que fue posteriormente actualizado y reemplazado por el IS-136.

En los teléfonos 2G inalámbricos el CDMA se adopto como un CT-2 y un DECT (Digital Enhanced Cordless Telephony) para proveer un formato flexible y permitir terminales compactos y con baja potencia.

1992 IS-54 (Estándar Interino 54)

Un enfoque, en 1988 de la asociación de la industria de telecomunicaciones (TIA) fue el  IS-54, luego adoptado e implementado por esta como TDMA en 1992

(IS-54) Cellular System Dual Mode Subscriber Equipment.: Equipo Suscriptor con Sistema Celular de Modo Dual.

IS-54 tendría dos revisiones IS-54A y IS-54B . En marzo de 1990 IS-54B fue incorporado como el primer estándar celular digital de modo dual de América del Norte.

  • Bajo IS-54, las nuevas terminales tienen todos los atributos de 1G AMPS terminales, con la capacidad añadida de transmitir información del usuario en formato digital formato sobre «canales de tráfico digital«.
    • Se basó en modulación digital y compresión de voz, junto a un método de acceso múltiple por división de tiempo (TDMA) TDMA triplicó la capacidad de llamadas, permitiendo 3 canales de voz en vez de 1 de 30 kHz en AMPS. Creando así el NA-TDMA (North America TDMA Digital Cellular), Este método separa las llamadas por tiempo, colocando partes de conversaciones individuales en la misma frecuencia, una tras otra.
    • Los avances tecnológicos que hacen que IS-54 sea al menos tres veces más eficiente que AMPS se encuentran principalmente en el área de procesamiento de señales digitales.
    • Mientras las llamadas están en curso, los teléfonos IS-54 tienen acceso a los canales de control que realizan algunas de las funciones de AMPS: transmisiones en canal de voz directo (FVC) y canal de voz inverso (RVC) (forward /reverse voice channel)
    • es introducido Un modo de reposo, en el que los terminales pueden apagar sus receptores durante un fracción significativa del tiempo cuando no tienen una llamada en curso,

Más tarde, cada uno de estos canales de tasa completa se subdividió en dos canales de tasa media, cada uno de los cuales, con la codificación y compresión necesarias, también podía admitir una llamada de voz. Por lo tanto, TDMA podría proporcionar de tres a seis veces la capacidad de los canales de tráfico AMPS.

Caracteristicas:

-IS-54 emplea el mismo espacio entre canales de 30 kHz y bandas de frecuencia (824-849 y 869-894 MHz) que AMPS.
-Asi mismo especifica 84 canales de control, 42 de los cuales se comparten con AMPS.
-La capacidad se incrementó con respecto al diseño analógico anterior dividiendo cada par de canales de 30 kHz en tres intervalos de tiempo y comprimiendo digitalmente los datos de voz, lo que produjo tres veces la capacidad de llamadas en una sola celda.

-El esquema de modulación para IS-54 es modulación por desplazamiento de fase cuaternaria diferencial (DQPSK) 7C/4, también conocida como diferencial 7t/4 4-PSK o π/4 DQPSK. Esta técnica de modulación digital de la portadora permite en cada canal de 30 kHz, una tasa de bits de 48,6 kbps para dar una eficiencia de ancho de banda de 1,62 bit/s/Hz. Este valor es un 20% mejor que GSM.

El codificador de voz IS-54 utiliza la técnica denominada predicción lineal excitada de suma vectorial (VSELP). Este es un tipo especial de codificador de voz dentro de una gran clase conocida como codificadores de predicción lineal excitados por código (CELP).
7,95 kbps es la velocidad de codificación de voz,que logra una calidad de voz reconstruida similar a la del sistema AMPS analógico que utiliza modulación de frecuencia.
13 kbps. Es la velocidad de un codificador de canal a partir de la señal de 7,95 kbps
– 6,5 kbps es la velocidad luego de aplicar a la salida del codificador de canal, el estándar de codificación de tasa media , que reduce la tasa de bits general para cada llamada a y debería proporcionar una calidad comparable a la tasa de 13 kbit/s. El Esta tasa media proporciona una capacidad de canal seis veces mayor que la de AMPS analógicos.

-La principal desventaja de este tipo de método de modulación lineal es la ineficiencia energética, que se traduce en un dispositivo portátil de mano más pesado y, lo que es aún más inconveniente, en un tiempo más corto entre recargas de batería.

1996 IS-136

Además de IS-95, Estados Unidos también produjo su actualización, elTIA/EIA Interim Standard 136 (IS-136)” (1996) publicada en octubre 1996, que especifica la operación TDMA en las Bandas PCS de américa del norte a 1900 MHz

Las  redes de IS-136  así como del AMPS migraron posteriormente de tecnologia, como GSM/GPRS que fue le caso de AT&T en los Estados Unidos (TDMA y AMPS en 2008)y Rogers Wireless en Canadá (IS-136 de 1900MHz en 2003, IS-136 y AMPS en mayo de 2007)

Los sistemas bajo este estándar son capaces de operar con  terminales de modo dual AMPS, y con terminales totalmente digitales..
Al diseño híbrido  o modo dual del IS-54, esta versión, el IS-136 especifico agregar un canal adicional: el canal de control digital (DCCH)
• IS-136 especifica canales de tráfico analógicos y digitales y los canales de control AMPS fuera de banda (FOCC y RECC).
• La publicación de IS-136 abre el camino a la producción de teléfonos TDMA totalmente digitales, en lugar que las unidades de modo dual especificadas en IS-54.
-IS-54 e IS-136 utilizan el algoritmo CAVE (Autenticación celular, privacidad y cifrado de voz) para la autenticación y el CMEA (Algoritmo de cifrado de mensajes celulares) para el cifrado. La autenticación , sirvió como una ayuda para prevenir el fraude.

-A diferencia de IS-54, IS-136 utiliza multiplexación por división de tiempo para transmisiones de voz y canales de control.

-El canal de control digital permite una cobertura residencial y dentro de un edificio, un tiempo de espera de la batería mucho mayor, varias aplicaciones de mensajería, activación por aire y aplicaciones de datos ampliadas.

-Los sistemas IS-136 necesitaban admitir millones de teléfonos AMPS, la mayoría de los cuales fueron diseñados y fabricados antes de que se consideraran IS-54 e IS-136.

-IS-136 agregó una serie de características a la especificación IS-54 original, incluidos mensajes de texto SMS, datos de conmutación de circuitos (CSD) y un protocolo de compresión mejorado. SMS y CSD estaban disponibles como parte del protocolo GSM, y IS-136 los implementó de manera casi idéntica.

– Canales digitales con el esquema FDMA/TDMA/FDD
Los canes de recepción “Forward” (base al movil) y transmisión “Reverse” (movil a Base) están en frecuencias separadas (FDD)
Cada canal puede soportar 8 usuarios e simultaneo usando TDMA, donde cada uno transmite a 13 kbps de voz codificada digitalmente dentro de 30kHz de ancho de banda de la portadora. Se usan 832 portadoras en formato FDMA, donde suman 833 dado que el canal de la primera portadora se usa como guarda en la banda de trasmisión de 25MHz.
-Eficiencia del espectro
• El factor de reutilización más común es N=7 celdas por clúster con tres sectores de antena en cada celda.
• Una red totalmente digital que ocupa la mitad de la banda AMPS tiene 416 portadoras y 3*416=1248 canales físicos “full-rate”.
• Una red práctica con N=7 de reutilización de frecuencias opera al menos 21 canales de control digital. Esta deja un máximo de 1248-21=1227 digital canales de tráfico full-rate, lo que corresponde a una eficiencia de E=1227/(7*25)=7.01 conversaciones/celda/MHz, aproximadamente 3 veces la eficiencia de AMPS.

– La trasmisión de 48,6 kbps en cada canal de frecuencia de 30kHz, se dividen en 6 canales digitales TDMA cada uno con capacidad de 8.1 kbps.

La Trama

-En esta trasmisión de canales digitales se forma una trama de 40ms que tiene seis (6) intervalos de tiempo (Time Slot) de esquema TDMA de 40/6=6,67 ms de duración cada uno.
hay 1.9 ms entre el final del “time slot” que se transmite y el comienzo del siguiente “time-slot” que se recibe

-Cada uno de los 6 intervalos de tiempos transporta 324 bits de información, de los cuales 260 bits son para datos de tráfico del usuario a  velocidad máxima de 13 kbps.( 2 TimeSlot/trama=2×260/0.040= 13 kbps, en Full Rate User Channel))
-Los otros 64 bits son de sobrecarga; incluyendo
 12 bits de información de control del sistema a un SACCH “Canal Asociado de Control de Baja Velocidad”
28 bits usados  para sincronización y contienen una secuencia de bits específica conocida por todos los receptores para establecer la alineación de trama ,
12 bits son de DVCC, equivalente del tono de audio de supervisión utilizado en el sistema AMPS. Hay 256 códigos de color de 8 bits diferentes, que están protegidos por un código Hamming (12, 8, 3). Cada estación base tiene su propio código de color preasignado, por lo que se pueden ignorar las señales entrantes que interfieren desde celdas distantes.
6 bits de intervalos de guarda y
6 bits de intevalos de rampa para permitir al operador alcanzar el nivel completo de potencia de salida.
-Los canales de tráfico IS-136 TDMA utilizan modulación π/4-DQPSK y proporcionan una velocidad de datos efectiva de 48,6 kbps en los seis intervalos de tiempo que componen una trama de 4ms en el canal de 30 kHz..

-En los estándares IS-54 y el IS-136 hay una secuencia diferente de sincronización para cada uno de los 6 intervalos de tiempo, permitiendo  que cada receptor se sincronice con sus propios intervalos de tiempo preasignados, y por lo que no hay una asignación Fija de canales para las operaciones de control de os canales digitales.

(324×6)/40ms=48.6kbps Datos transmitidos por portadora
(324×6)/40ms=48.6kbps Triple Full Rate Channel (4 Slots por trama)
(324×2)/40ms=16.2kbps Full Rate Channel (Slots 1y4,o 2y5, o 3y6)
(324×1)/40ms=8.1kbps Half Rate Channel (1 Slots por trama)
(324×4)/40ms=32.4kbps Double Full Rate Channel (4 Slots por trama)

(260×2)/40=13kbps Datos de trafico transmitidos por portadora (Full Rate Channel Slots 1y4,o 2y5, o 3y6)
(260×1)/40ms=6.5kbps Datos de trafico transmitidos por portadora Half Rate Channel (1 Slots por trama)

IS-54 e IS-136: Seguridad TDMA

Rango de frecuencia móvil Rx: 869-894; Tx: 824-849
Método de acceso múltiple AMDT/FDM
Método dúplex FDD
número de canales 832 (3 usuarios por canal)
Espaciado de canales 30 khz
Modulación DQPSK
Velocidad de bits del canal 48.6Kbps

Aspectos radiales

  • Velocidad de bits del canal 48,6 kbit/s
  • Duración de la trama 40 ms, dividida en seis ranuras de 6,67 ms. Si se sigue que para frecuencias portadoras habituales, en promedio se produce un desvanecimiento por ráfaga. Ver cálculo v = 27 m/s, fc = 1900 MHz, margen de desvanecimiento 6 .. 10 dB)
  • Cada ranura: 324 bits, 260 datos de usuario
  • Codificación predictiva lineal excitada de libro de códigos de tasa completa y mitad de tasa:
    Predicción lineal excitada de suma vectorial (VSELP)
    Velocidad de la fuente 7,95 kbps, transmitida a 13 kbps
  • QPSK Diferencial (envolvente no constante: penalización de potencia) pi/2 desplazado, filtrado roll-off del coseno raíz, factor de roll-off 0,35
  • 1,62 bit/s/Hz
  • Los canales de voz inactivos se pueden usar para transmisión de paquetes de datos. CDPD
  • La ecualización inicialmente no estaba incluida en el estándar, pero parece útil para diferenciales de retardo mayores que T /8, siendo T el símbolo de tiempo. Esta corresponde a diferenciales de retardo de unos pocos microsegundos.

CAVE y CMEA están documentados en Algoritmos criptográficos comunes y Especificación de interfaz para algoritmos criptográficos comunes .

David Wagner, Bruce Schneier y John Kelsey publicaron Cryptanalysis of the Cellular Message Encryption Algorithm , que documenta fallas profundas en el algoritmo CMEA.

Arquitectura

BMI: estación Base, centro de conmutación Móvil y Función de iInteroperatividad (ase Station, Mobile Switching Center, and Interworking Function.)

  • especifica tres tipos de red externa: sistemas públicos, sistemas residenciales y sistemas privados.
    – funcionar como un teléfono celular (cellular telephone) con acceso a la BS de celular empresas operadoras (red pública).
    – funcionar como un teléfono inalámbrico (cordless telephone) operando con una BS residencial específica (red residencial).
    – funcionar como un teléfono comercial (business phone) que opera con un privado inalámbrico específico centralita (red privada).

Potencia radiada

  • NA-TDMA especifica 11 niveles de potencia radiada para terminales, incluyendo los ocho niveles de potencia de los terminales AMPS.

=======================================

Canales Lógicos
  • Como sistema de modo dual, NA-TDMA es capaz de soportar todos los canales lógicos de AMPS además de los canales digitales de control y canales de tráfico digital especificados en IS- 136.
    • Un canal de tráfico digital transmite información en 6 formatos en la dirección de avance y 5 formatos en la dirección inversa.
    • los canales de control digital de Reenvío multiplexa la información en 9 distintos formatos, incluidos 3 canales de control de emisión y 3 Canales punto a punto. También transmiten 2 tipos de información de sincronización (SFP y SYNC) y llevar retroalimentación sobre los resultados de las transmisiones de acceso aleatorio de terminales (SCF).
    • El canal de acceso aleatorio RACH es un canal de “muchos a uno”que transporta mensajes desde los terminales a una estación base.
    •La FACCH utiliza una técnica de “blanqueo y ráfaga” para transmitir información sobre un canal de tráfico digital.
    • Los canales de control de emisión y todos los SPACH ocupan sus propios intervalos de tiempo en un canal de control digital directo.
    • Las terminales compiten por el acceso a la RACH. Los ”canales compartidos de retroalimentación”(Shared channel feedback) juegan un papel importante papel en el proceso de disputa.
Canal de Tráfico Digital (DTCH)
  • El formato para transmisiones directas difiere del formato para transmisiones inversas.
    – Las BS NA-TDMA transmiten continuamente mientras terminales encienden sus transmisores en el comienzo de cada intervalo de tiempo de transmisión y turno quítelos al final de la ranura.
    – Tres terminales comparten el mismo operador y es importante para evitar que sus señales lleguen a la BS simultáneamente.
    • El tiempo de guarda de 6 bits (G, 0,123 ms) a la inversa intervalo de tiempo evita que la señal transmitida al principio de un intervalo de tiempo de interferir con la señal transmitido al final del intervalo de tiempo anterior.
    • El tiempo de rampa de 6 bits (R) permite que el transmisor llegue a su nivel de potencia radiada total.
    • En los intervalos de tiempo de avance, el control 11digital localizador de canal (DL) bit 1 bit RSVD tomar el lugar de intervalos de guardia y rampa en intervalos de tiempo inversos.
    • Además de las franjas horarias inversas, el terminal transmitir una ráfaga acortada (50 bits, 1,03 ms) cuando adquieren un nuevo canal físico.
    • El tiempo de guardia largo presenta la señal de uno terminal interfiera con las señales de otros terminales que utilizan intervalos de tiempo adyacentes.
    • Basado en la información de alineación de tiempo en el mensaje de CONTROL DE LA CAPA FÍSICA, el terminal ajusta la temporización de su transmisor en relación con el temporización nominal (1,9 ms).

El slot y la trama de IS-136 es mas simple que la del estándar GSM
40ms de trama  con 6.67 ranuras de tiempo

Sincronización
  • El campo SYNC de 28 bits en cada intervalo de tiempo tiene 2 propósitos.
    – Contiene información de sincronización de tramas.
    – Permite que un receptor entrene un ecualizador adaptativo.
    • Los canales de tráfico NA-TDMA logran la sincronización de tramas medio de 6 secuencias SYNC diferentes de 28 bits, una asignada a cada franja horaria.
    • Al reconocer el patrón SYNC para esa ranura de tiempo, el receptor tiene una indicación de cuándo recibir la información en el intervalo de tiempo y cuándo transmitir DTCH inverso información a la BS.
    • Un ecualizador adaptativo en el receptor examina el recibido forma de onda en el campo SYNC y lo compara con la conocida forma de onda transmitida.
Código de color de verificación digital (DVCC)
  • Al igual que el SAT, la DVCC informa a los MS y BSs que están recibiendo la señal deseada y no una señal de otra celda usando el mismo canal físico.
    • A diferencia de los 3 SAT de AMPS, NA- TDMA tiene un total de 255 DVCC diferentes (8- bits).
Campos de información
  • Los campos de DATOS contienen 260 bits de usuario información por franja horaria. – Forward: los bits DATA ocupan 2 campos, cada uno con 130 bits. – Inversa: hay 3 campos de DATOS, uno con 16 bits, y los otros dos de 122 bits cada uno.
    • Un canal de usuario de tarifa completa ocupa 2 intervalos de tiempo por fotograma transporta 2*260/0,040=13.000 b/s.
Identificadores NA-TDMA

Todos los identificadores AMPS están incluidos en las especificaciones NA-TDMA.
• La clave A  (Key-A) de 64 bits juega un papel fundamental en la promoción de la seguridad de la red y privacidad de la comunicación en un sistema TDMA de modo dual.
• El sistema divide su área de servicio en grupos de celdas, denominados áreas de ubicación. LOCAID es un identificador de área de ubicación de 12 bits.
• El IMSI (identificación de suscriptor móvil internacional) es un teléfono número con hasta 15 dígitos decimales.
• El valor de PV (versión del protocolo) refleja el documento de estándares que rige el funcionamiento de una estación base o terminal.
• El SOC (código de operador del sistema) transmitido por una BS identifica a los terminales la empresa que opera la BS.
• El BSMC (código de fabricante de BS) indica el fabricante de la BS.
• El DVCC (código de color de verificación digital) juega el mismo papel en digital canales de tráfico como el SAT transmite en canales de tráfico analógicos. Permite identificar el canal de frecuencia en el cual el móvil esta sintonizado. (12 bits)

Codificación del habla (predicción lineal excitada de suma vectorial (VSELP))
  • Un convertidor de analógico a digital produce muestras de voz a una velocidad de 8000 muestras por segundo en un formato lineal cuantizado a al menos 13 bits/muestra.
    • El algoritmo VSELP produce una representación de 159 bits de las 160 muestras.

Protección contra errores para voz codificada

  • Entre los 159 bits VSELP en un codificador de voz marco, hay 77 bits de clase 1 que son especialmente vulnerable a errores de transmisión.
    • 12 bits en los bits de Clase 1 se designan como Bits «más significativos desde el punto de vista de la percepción».
    • Estos bits están protegidos por error CRC de 7 bits. código de detección.
Bloque de voz de repetición
  • Si el flujo de bits falla el CRC, el decodificador genera una indicación de «marco defectuoso».
    • La trama incorrecta hace que el decodificador VSELP ignore la información recibida y repetir la más reciente bloque de bits de voz recibidos sin fallo de CRC.
    • Si el decodificador requiere 3 o más consecutivos repeticiones de un bloque de habla, atenúa la señal recibida.
    • Si hay seis o más tramas incorrectas sucesivas indicaciones, el receptor silencia completamente la señal recibida.
Bits de código entrelazados
  • Para combatir los efectos del desvanecimiento.
    • NA-TDMA recopila los 130 bits finales de un bloque VSELP «antiguo» y los multiplexa con los primeros 130 bits de un bloque «nuevo».
Canal de control asociado lento (SACCH)
  • El SACCH es un canal de señalización fuera de banda llevar información hacia y desde una terminal mientras una la llamada está en curso.
    • FVC y RVC en AMPS son señalización en banda canales que operan en un modo en blanco y en ráfaga, interrumpir la información del usuario cada vez que lleva un mensaje.
    • En el SACCH, 132 bits, correspondientes a la contenidos de 11 intervalos de tiempo, comprenden una palabra de código.
    • La palabra clave contiene un control de red de 50 bits mensaje protegido por un CRC de detección de errores y un código convolucional de corrección de errores.
Localizador de canales de control digital (DL)
  • El campo DL en el canal digital de tráfico directo ayuda a los terminales a localizar un canal de control digital (DCCH).
    • El campo DL de 11 bits contiene datos de 7 bits de los valores Digitales Localizados protegido por corrector de errores de código (11,7;3)
Canal de control asociado rápido (FACCH)
  • Un canal de señalización “en la banda” para manejar más rápido comunicaciones
    • La palabra clave reemplaza los 260 bits de un bloque codificador de voz.
    • La información de la FACCH se transmite en 1/6 la hora de la información SACCH.
    • La confiabilidad de la información es considerablemente más alto.
Canal de control digital (DCCH)
  • Un bloque, que consta de 3 ranuras, es la mitad de un marco.
    • Un canal de control de tasa completa ocupa 1 ranura por cuadra.
    • Hay 32 bloques por supertrama y 2 supertramas por hipertrama.
    • Un DCCH de tasa completa ocupa 32 intervalos de tiempo por supertrama.
    • Un DCCH de tasa media ocupa 16 ranuras por supertrama.
  • El campo SYNC es idéntico al campo SYNC de un DTCH.
    • SYNC+ y PREAM son patrones de bits fijos que brindan información de sincronización en el canal de acceso aleatorio.
    • SPF informa a los terminales de la ubicación del bloque actual en el bloque de 32 Supertrama DCCH. El número de bloque se representa como una palabra de 8 bits.
    • Debido a que SFP difiere del código que protege el DVCC, los terminales pueden inspeccionar este campo de 12 bits para determinar si el intervalo de tiempo actual lleva un DCCH o un DTCH. • SCF aparece en 22 bits de cada intervalo de tiempo DCCH directo.
    – Una indicación de ocupado/reservado/inactivo (BRI) (6 bits) informa a los terminales si el la ranura actual está siendo utilizada por un canal de acceso aleatorio
    – Una indicación de recibido/no recibido (R/N) (5 bits) informa a los terminales si la BS ha decodificado con éxito la información transmitida en un intervalo de tiempo en el DCCH inverso. – Un eco parcial codificado (CPE, 11 bits) acusa recibo de información en el DCCH inverso.
Canales lógicos multiplexados en el Reenviar DCCH
  • Cada intervalo de tiempo en un DCCH directo lleva información de uno de los seis lógicos canales
    • Los canales lógicos comparten cada supertrama con F-BCCH, E-BCCH, S-BCCH y ordenó SPACH.
Operación de paginación del canal, Modo de reposo
  • El monitoreo de paginación de los mensajes tiene una gran influencia en el tiempo de espera de la batería del terminal.
    • NA-TDMA mejora esta situación con una forma de hacer que los terminales funcionen en modo de reposo cuando no hay ninguna llamada en curso.
    • El terminal se despierta durante un breve intervalo de tiempo en el modo de sueño.
    • Si hay un mensaje de paginación para el terminal, la BS programa el mensaje para que llegue durante este breve intervalo de en que despierta.
Protocolo de acceso RACH
  • Los terminales dispersos compiten por el acceso a la RACH bajo el control del canal compartido de retroalimentación (SCF) donde la información es transmitida en los intervalos de tiempo DCCH reenviados.
    • 2 modos para RACH
    – Acceso aleatorio
    – Acceso reservado

Acceso aleatorio

  • Éxito
    – Un terminal con información para transmitir espera una indicación IDLE en los bits BRI de un intervalo de tiempo DCCH directo.
    – El terminal luego transmite su información en un intervalo específico del DCCH inverso.
    – La BS informa el resultado de esta transmisión con la indicación IDLE que estimuló la transmisión por el terminal.
    – La BS indica un resultado exitoso por medio de una indicación BUSY en los bits BRI de la ranura de respuesta.
    • Falla
    – El terminal espera un tiempo aleatorio y vuelve a intentar transmitir su información a la BS.
    – Los intentos de transmisión continúan hasta que la BS recibe el RACH información y transmite con éxito un ACK a la terminal.

Modo reservado

  • La BS solicita al terminal una transmisión por medio de un RESERVADO indicación en los bits BRI y los últimos 7 bits de el identificador de MS en la parte CPE del retroalimentación compartida del canal.
    • Este aviso de BS otorga al terminal acceso exclusivo a una franja horaria en el reverso DCCH.
Campo de datos del DCCH
  • Propósito de DCCH
    – Para llevar mensajes de control de red y mensajes SMS.
    • Los mensajes están contenidos en los campos de DATOS de cada ranura.
    • Además del contenido del mensaje, los campos de DATOS llevan encabezados que describen el mensaje.
    – Indica si el contenido del mensaje comienza como un nuevo mensaje o es un continuación de un mensaje en curso.
    – Indica la longitud de la parte del mensaje del campo DATA.
    • 260 bits en un intervalo de tiempo DCCH directo.
    – Hay 260/2=130 bits a la entrada del codificador convolucional.
    – Con un CRC de 16 bits y 5 bits de cola, esto deja 130-16-5=109 bits disponible para el encabezado y la información del mensaje.
Mensajes
  • 3 conjuntos de mensajes clasificados por los canales lógicos
    – Mensajes transmitidos en canales lógicos AMPS
    – Mensajes transmitidos en banda (FACCH) y canales de señalización fuera de banda (SACCH) asociado con los canales de tráfico TDMA.
    – Mensajes transmitidos en canales de control digital
Mensajes en canales lógicos AMPS
  • Los propósitos principales de los mensajes agregados y campos de información:
    – Controlar los procedimientos de autenticación NA-TDMA – Terminales de modo dual directas a canales de tráfico digital
    – Informar a la BS y switch de las capacidades de un terminal.
    • Información del modo de llamada preferido, en configuración de llamada mensajes, informa al sistema de las capacidades de un Terminal.
    • LOCAID, un identificador de área de ubicación transportado en mensajes de ACCIÓN GLOBAL, juega un papel importante papel en el registro basado en áreas, una movilidad protocolo de gestión disponible en NA-TDMA
Mensajes adicionales en Canales de control AMPS
Mensajes de base a móvil(FOCC y CVF) Mensaje móvil a base  (RECC y RVC)
Mensajes de autenticación
SOLICITUD DEL NÚMERO DE SERIE RESPUESTA DE NÚMERO DE SERIE
CONFIRMAR CAMBIOS ESTACIÓN BASE CAMBIO DE LA ESTACIÓN BASE
ORDEN DE CAMBIO ÚNICO CONFIRMAR CAMBIO ÚNICO
ACTUALIZACIÓN DE DATOS SECRETOS COMPARTIDOS CONFIRMAR ACTUALIZAR DATOS SECRETOS COMPARTIDOS
Mensajes de gestión de llamadas
PÁGINA CON SERVICIO MENSAJE EN ESPERA ORIGINACIÓN CON SERVICIO RESPUESTA DE PÁGINA CON SERVICIO
Mensaje de gestión de recursos de radio
CANAL DE TRÁFICO DIGITAL INICIAL
Mensajes Cargados en Canales de control Asociados
  • La mayoría de los mensajes estimulan las respuestas ACK del elemento de red receptor.
    – Algunos mensajes ACK simplemente informan a la BS o terminal que envía que el se recibió el mensaje.
    – Otros ACK contienen información específica para el propósito del original mensaje.
    • Los mensajes en los canales de control asociados comparten un formato, que es similar a los formatos de los mensajes intercambiados en otros sistemas, como ISDN y SS7.
    • Todos los mensajes se transmiten en palabras de código de 49 bits.
    • El primer bit de cada palabra de código indica si este código palabra es la última palabra de código en un mensaje (0) o si es adicional las palabras de código siguen (1).
Estructura del mensaje
  • Cada mensaje comienza con un preámbulo de 2 bits. NA-TDMA se refiere a este preámbulo como un discriminador de protocolo.
    • Los siguientes 8 bits comprenden un campo de tipo de mensaje que especifica la naturaleza del mensaje.
    • El resto del mensaje contiene datos variables propios de la finalidad del mensaje.
Contenido de un TRASPASO de 48 bits Mensaje Realizado en la FACCH
Posición del bit  información
1-2 00 protocolo discriminador
3-10 11011100 Mensaje de TRASPASO
11-21 Número de canal AMPS (especifica el operador)
 22 Tarifa completa de tarifa media
23-25 ranura de tiempo
26-35 SAT si se transfiere a un canal analógico, DVCC si se transfiere a un canal digital
36-39 Nivel de potencia de transmisión
40-44 Alineación de tiempo
45-46 Indicador de ráfaga acortado
47 Modo de privacidad de voz
48 Modo de cifrado de mensajes
Contenido del mensaje
  • ACK y retransmisión
    – El tiempo de espera para una confirmación es de 200 ms para mensajes en un FACCH y 1,2 segundos para mensajes SACCH.
    – Para transmisiones desde una MS, el número máximo de intentos es 3. – Para transmisiones BS, no hay un máximo estándar.
    • Los mensajes DTMF se refieren a la frecuencia múltiple de tono dual. (sonidos producidos por teléfonos de botón).
    •La ORDEN DE MEDIDA, CALIDAD DE CANAL, y Los mensajes DETENER ORDEN DE MEDICIÓN son todos parte del Protocolo de traspaso asistido por móvil.
    • Los mensajes R-DATA forman parte del servicio de mensajes cortos.
Mensajes transmitidos en Canales de control digital
  • Hay 58 mensajes definidos para el DCCH en contraste con el 16 mensajes FOCC/RECC en AMPS.
    • Todos los mensajes DCCH comparten un formato común.
    • La longitud de cada mensaje es un múltiplo entero de 8 bits, hasta a una longitud máxima de 255*8=2040 bits (255 octetos).
    • Cada mensaje comienza con un discriminador de protocolo de longitud 2 bits, que para los mensajes IS-136 son 00.
    • Los siguientes 6 bits comprenden un tipo de mensaje que especifica la naturaleza del mensaje. • El resto del mensaje contiene datos específicos del propósito del mensaje.
    – Los campos de datos comienzan con datos obligatorios que se llevan en cada mensaje de un tipo específico.
    – Estos datos van seguidos de parámetros opcionales, que se transportan en algunos mensaje.
Contenido de una IDENTIDAD DEL SISTEMA Mensaje en un BCCH
Posición del bit información
1-2 00 protocolo discriminador
3-8  001011 IDENTIDAD DEL SISTEMA mensaje
  Datos Obligatorios
9-23  Identificador del sistema (SID)
24-26 Tipo de red
27-30 Versión del protocolo
  Datos opcionales
Variable Conjunto de PSID/RSID
Siguientes 14 bits Código de país móvil
Variable Nombre del sistema alfanumérico
Autenticación y Privacidad
  • En el corazón de la seguridad de la red hay una clave secreta (clave A), un número binario de 64 bits, almacenado en cada teléfono.
    • El centro de autenticación y el terminal utilizan la misma clave A, en combinación con un número aleatorio generado en el AC, para calcular un 128- palabra de bits, denotada como datos secretos compartidos (SSD).
    • SSD es la clave criptográfica utilizada por un terminal y una BS para proteger información transmitida.
    • CAVE (autenticación celular y encriptación de voz) es un algoritmo criptográfico que opera en entradas de 152 bits.
    • RANDSSD es un número aleatorio generado en el AC.
    • RANDBS, número aleatorio de 32 bits, es un número aleatorio generado en el terminales.
    • La BS envía un mensaje de PEDIDO DE ACTUALIZACIÓN SSD al terminal.
Mecanismo de seguridad de red para Verificación de la identidad de un terminal
  • La BS controla el contenido de una memoria registro, COUNT, registro de historial de llamadas de 8 bits, en el terminal por medio de un PARÁMETRO ACTUALIZAR mensaje.
    • Para acceder al sistema, el terminal transita COUNT a la BS, que verifica que el terminal tiene el valor correcto de este parámetro.
Transferencia asistida por móvil (MAHO)
  • 4 tipos de traspaso: de un canal analógico a otro canal analógico, de analógico a digital, de digital a analógico y de digital a digital.
    • Cada terminal reporta su medición a su propia BS en mensajes de CALIDAD DE CANAL en el lento canal de control asociado.
    • Los mensajes de ORDEN DE MEDICIÓN identifican ya sea 6 o 12 canales activos en las células circundantes. El terminal entonces sintoniza estos canales y observa sus intensidades de señal.
  • El terminal realiza dos mediciones en el canal de tráfico activo.
    – BER, la tasa de error binario
    – RSSI, indicación de intensidad de la señal recibida
    • Un mensaje inicial de CALIDAD DE CANAL contiene la estimación de BER (3 bits), el RSSI estimación del canal activo (5 bits), y la Mediciones RSSI de los primeros 6 alrededores canales
    • El anuncio. de MAHO
    – MAHO puede iniciar un traspaso en respuesta a la calidad de la señal Problemas en la terminal.
    – MAHO responde más rápidamente a los problemas de calidad de la señal.
    – MAHO proporciona BER para permitir que el sistema funcione traspasos en respuesta a una interferencia excesiva en el tráfico canales
    – MAHO mueve parte del procesamiento de la información necesarios para el control de la red desde los conmutadores hasta las BS y terminales.
Asignación de canales asistida por dispositivos móviles (MACA)
  • MACA es un procedimiento de gestión de recursos de radio relacionado con MAHO.
    • El BCCH transmite un mensaje MACA a todos los terminales en una celda. El mensaje contiene una lista de inactivos canales que están disponibles para manejar nuevas llamadas.
    • Los terminales sintonizan los canales y realizan la señal. medición de fuerza y ​​transmitir la medición a la BS en mensajes MACA REPORT en el RACH.
    • El sistema utiliza estas medidas de intensidad de la señal, como parte de un algoritmo de asignación de canales, para asignar un canal físico apropiado para una conversación.
Gestión de llamadas
  • ALERTA CON INFO indica al terminal que produzca una señal audible.
    • Cuando un suscriptor responde a una señal de alerta, el terminal envía un mensaje CONNECT a la BS.
    • El mensaje CONECTAR reemplaza el mensaje colgado, descolgado. indicaciones de gancho proporcionadas por AMPS 10 kHz tono supervisor.
    • Los mensajes FLASH indican al sistema que un el usuario del teléfono desea iniciar una acción especial durante una llamada en curso.
Gestión de la movilidad
  • Siempre que un terminal que no tiene una llamada en progreso ingresa a una nueva área de ubicación, envía un mensaje de REGISTRO a la estación base local.
    • Cuando llega una llamada a un terminal, el sistema busca la terminal solo en el área de ubicación donde estuvo por última vez registrado.
    • El terminal compara este identificador con el almacenado identificador de la EB anterior para determinar la terminal ha entrado en una nueva área de ubicación y está por lo tanto obligado a enviar un REGISTRO mensaje al sistema.

E-AMPS (AMPS EXTENDIDOS)

  • Propuesto por Hughes
  • Interpolación de voz digital (DSI): Las pausas de voz se aprovechan para mejorar la capacidad del usuario. Por lo general, la actividad del habla es de aproximadamente 0,4. Comparar con PRMA .
  • Marco de seis ranuras; asignado dinámicamente a diferentes usuarios Ejemplo de rendimiento de DSI:
    • Sin DSI: E-AMPS tiene 6 veces la capacidad de AMPS analógicos
    • DSI en 1 portadora de RF: 6 veces analógica
    • 3 portadoras de RF: 7 veces analógicas
    • 8 portadoras de RF: 9 veces analógicas
    • 19 portadoras de RF: 11 hora analógica
    • Muchas portadoras de RF: Ley de los grandes números:
    • finalmente 6 / 0.4 = 15 veces AMPS analógico
  • DSI en enlace directo: multiplexación
    DSI en enlace inverso: acceso aleatorio : pérdida de rendimiento debido a colisiones
  • frecuencia lento : mitiga el efecto de desvanecimiento

1993 (1992) SMS (Finlandia)

El concepto de SMS (Short Message Service) o Servicio de Mensajes Cortos fue desarrollado en la cooperación GSM franco-alemana en 1984 por Friedhelm Hillebrand y Bernard Ghillebaert. La idea clave de SMS era utilizar este sistema optimizado para teléfonos y transportar mensajes en las rutas de señalización necesarias para controlar el tráfico telefónico durante los períodos en los que no existía tráfico de señalización. Fue necesario limitar la longitud de los mensajes a 128 bytes (luego se mejoró a 160 caracteres de siete bits) para que los mensajes pudieran encajar en los formatos de señalización existentes. SMS podría implementarse en cada estación móvil actualizando su software. Por lo tanto, existía una gran base de terminales y redes compatibles con SMS cuando la gente comenzó a utilizar SMS.

El primer mensaje SMS fue enviado a través de la Vodafone GSM en el Reino Unido el 3 de diciembre de 1992, desde Neil Papworth de Sema Group (ahora Mavenir Systems ) usando una computadora personal a Richard Jarvis de Vodafone usando un teléfono Orbitel 901. El texto del mensaje era «Feliz Navidad»
El primer servicio de SMS vendido comercialmente se ofreció a los consumidores, como un servicio de mensajería de texto de persona a persona por Radiolinja (ahora parte de Elisa) en Finlandia en 1993. La mayoría de los primeros teléfonos móviles GSM no admitían la capacidad de enviar mensajes de texto SMS. , y Nokia fue el único fabricante de teléfonos móviles cuya línea total de teléfonos GSM en 1993 admitía el envío de mensajes de texto SMS por parte de los usuarios

1993 D-AMPS

Parte de la adopción del IS-54 como el estándar inicial para el AMPS digital y luego su actualización el IS-136..

La Asociación de Industrias de Teléfonos Celulares desarrolló una versión digital de AMPS basada en la tecnología AMPS, llamada D-AMPS (Digit-AMPS). Este es en realidad un estándar 2G. En los Estados Unidos  se establecido en 1994  el “1900 MHz PCS” como la banda de 1900MHz para el servicio de comunicación personal  (PCS) solo para operación digital
D-AMPS, implementado comercialmente desde 1993, era un estándar digital 2G utilizado principalmente por AT&T Mobility y US Cellular en los Estados Unidos, Rogers Wireless en Canadá, Telcel en México, Telecom Italia Mobile (TIM) en Brasil, VimpelCom en Rusia, Movilnet en Venezuela y Cellcom en Israel. En la mayoría de las áreas, D-AMPS ya no se ofrece y ha sido reemplazado por redes inalámbricas digitales más avanzadas.

El sistema D-AMPS usa un híbridos de  Acceso  múltiple por división de frecuencia FDMA y el Acceso Múltiple por División de Tiempo (TDMA )concepto ya que acepta 3 usuarios por operador para obtener tres canales para cada canal FDMA, triplicando la cantidad de llamadas que se pueden manejar en un canal.. El espacio entre portadores de 30 kHz, similar al AMPS analógicos. Por lo tanto, utilizando el mismo patrón de reutilización de frecuencia, desde el sistema analógico al digital la versión digital puede acomodar tres veces más usuarios En términos de planificación de frecuencias del sistema digital, este es similar a AMPS analógicos. Las frecuencias portadoras están en las bandas de 800 y 1900 MHz.

Aunque el digital tiene ventajas Para el operador, a los especialistas en marketing les resultó difícil convencer a los suscriptores de que fueran digital, es decir, para comprar un nuevo teléfono. Las ventajas de una mayor seguridad en un sistema digital no se usaron intencionalmente, para evitar que los suscriptores ser alertado de que el sistema AMPS analógico tenía menos seguridad.

Paquete de datos digitales para celulares (CDPD) Cellular Digital Packet Data

CDPD es un sistema de paquetes de datos que utiliza canales de voz inactivos del AMPS o IS-54 del sistema de telefonía celular de los Estados Unidos
Las aplicaciones de CDPD incluyen
correo electrónico
telemetría, por ejemplo, lectura remota de inventario de máquinas expendedoras
verificación de crédito
fax inalámbrico
Informática del transporte por carretera
datos adicionales para mejorar el rendimiento de los sistemas de posicionamiento GPS

La tasa de bits del canal es de 19,2 kbits/s. El rendimiento de datos efectivo máximo es
11,8 kbit/s en el enlace descendente, y
13,3 kbit/s en el enlace ascendente

El protocolo de acceso medio utiliza un tipo de ISMA : contención de paquetes, con retroalimentación ocupado/inactivo. El acceso por radio puede sufrir demoras debido a

colisión de paquetes debido a la contención en de acceso aleatorio protocolo
canales bloqueo si todos los canales de voz están en uso.

Aspectos de transmisión de CDPD

(63,47) Codificación de canal Reed Solomon
Paquetes de 378 bits (incluyendo bits de paridad)
Sobrecarga de señalización
Enlace descendente: banderas ocupadas/inactivas
Uplink: indicador de continuidad

Arquitectura de la red (CDPD network architecture)
Sistemas móviles finales (Mobile end systems) El dispositivo portatil del subscriptor
Estaciones de bases de datos móviles (Mobile data base stations): Localizado en el sitio de la celda y aue es usado para la telefonia
Sistema intermedio de datos móviles (Mobile data intermediate system), para realizar el enrutamiento a capas superiores o enrutadores y puertas de enlace (gateways), incluido el enrutamiento a través de la red troncal de comunicaciones (backbone communication network).
Sistemas finales fijos (Fixed end systems), que ejecutan aplicaciones de usuario,

1993 PDC (Japón)

El PDC (Personal Digital Cellular o Celular Digital Japonés) (basado en TDMA), fue definido por RCR (que más tarde se convirtió en ARIB ) y NTT DoCoMo lanzó su servicio Digital MOVA en marzo de 1993.

Utilizo para el codificador de voz, una portadora de 25 kHz,y  modulación pi/4- DQPSK con
3 intervalos de tiempo de 11,2 kbps de tasa completa(full -rate) o
6- intervalos de tiempo (timeslot) de 5.6 kbps de tasa media(half-rate).

Los códecs de voz desarrollados por ARIB fueron el PDC-EFR (PDC Enhanced Full Rate) que usa utiliza G.729, y el PDC-HR (PDC Half Rate) con una tasa de bits de 3,45 kbps se basa en Pitch Synchronous Innovation CELP (PSI-CELP)..

PDC se implemento en las bandas de 800 MHz (enlace descendente 810–888 MHz, enlace ascendente 893–958 MHz) y 1,5 GHz (enlace descendente 1477–1501 MHz, enlace ascendente 1429–1453 MHz). La interfaz del enlace aéreo se define en RCR STD-27 y en la red central (core network) MAP en JJ-70.10
Los servicios incluyen voz (de Tasa completa y media), servicios complementarios (llamada en espera, correo de voz, llamada tripartita, desvío de llamadas, etc.), servicio de datos y conmutación de paquetes (hasta 9.6 kbps CSD ). datos inalámbricos (hasta 28,8 kbps PDC-P ).

El operador que más perduro en su uso fue NTT Docomo quien cerró su red, mova, el 1 de abril de 2012 a la medianoche en favor a tecnologías 3G como W-CDMA y CDMA2000 .

1995 IS-95 (Qualcomm/ TIA), CDMA cdmaOne , CDMA 1X

Posteriormente un nuevo enfoque, originalmente desarrollado por Qualcomm Inc. pero adoptado como estándar por la TIA, El estandard IS-95 (Interim Standard 1995),o comercialmente “cdmaOne” permitió que las redes basadas en CDMA formalmente entraran a la 2G de redes de telefonía móvil. Este estándar usa la forma de acceso múltiple por espectro ensanchado CDMA que a su vez es derivado de la norma ANSI-41, combinando igualmente la compresión de voz y la modulación digital, ofreciendo de 10 a 20 veces la capacidad del AMPS.
IS-95 define un par de canales de radio de 1.25 MHZ, brindando cada canal hasta 64 canales (64 chip codes). (o hasta 41 analógicos de AMPS)

IS-95 tiene dos versiones, IS-95A e IS-95B. El primero puede admitir velocidades máximas de datos de hasta 14,4 kbps, mientras que el segundo alcanza los 115 kbps.

Las primeras tecnologías desarrolladas para la transmisión digital (N-AMPS, D-AMPS, IS-95) que fueron implementados en los Estados Unidos, eran incompatibles entre sí, por lo que no reemplazaron sino que se apoyaron al estándar anterior AMPS.

Resumen de la Red de comunicación móvil de Segunda Generación (2G)

La tecnología GSM fue la primera en facilitar voz y datos digitales, así como roaming internacional permitiendo al cliente ir de un lugar a otro.

  • Año – 1980 -1990
  • Tecnología – Digital
  • Velocidad – 14kbps a 64 Kbps
  • Banda de frecuencia – 850 – 1900 MHz (GSM) y 825 – 849 MHz (CDMA)
  • Ancho de banda / canal – GSM divide cada canal de 200 kHz en bloques de 25 kHz El canal CDMA es nominalmente de 1,23 MHz
  • Multiplexación / Tecnología de acceso – TDMA y CDMA.
  • Conmutación – Conmutación de circuitos
  • Estándares – GSM (Sistema Global para Comunicaciones Móviles), IS-95 (CDMA) – utilizado en América y partes de Asia), JDC (Celular Digital Japonés) (basado en TDMA), utilizado en Japón, iDEN (basado en TDMA) , red de comunicación propietaria utilizado por Nextel en los Estados Unidos.
  • Servicios: Voz Digital, SMS, roaming internacional, conferencia, llamada en espera, retención de llamada, transferencia de llamadas, bloqueo de llamadas, número de identificación de llamadas, grupos cerrados de usuarios (CUG), servicios USSD, autenticación, facturación basada en los servicios prestados a sus clientes, por ejemplo, cargos basados en llamadas locales, llamadas de larga distancia, llamadas con descuento, en tiempo real de facturación

2G

SISTEMA GSM IS-54  PDC IS-95
Banda de frecuencia 890-915 MHz 850 MHz 1850-1910 MHz 824-849 MHz
Esquema de acceso múltiple TDMA/FDMA TDMA/FDMA TDMA/FDMA CDMA
Tasa de datos 13 kbps 7.95 kbps 7.95 kbps 14.4 kbps
Año de introducción 1990 1992 1993 1993
Esquema de modulación GMSK Π/4 DQPSK Π/4 DQPSK QPSK

2.5G

SISTEMA HSCSD GPRS  EDGE EGPRS
Banda de frecuencia
Esquema de acceso múltiple
Tasa de datos 14.4-115.2 kbps 40-115 kbps
Año de introducción 2001
Esquema de modulación 8PSK Π/4DQPSK 8PSK GMSK
asignación de los recursos asimétrica

Era 2.5G

2000 (1993) GPRS (ETSI) Estándar para Transmisión de datos

El protocolo CELLPAC desarrollado entre 1991 , en 1992 fue parte del 3GPP Rev.1, y 1993 en una contribución del taller ETSI de 1993 dio inicio a la primera propuesta de GPRS (General Packet Radio Service  o Servicio General de Paquetes de Radio) para 1993. Sin embargo, cuatro años más tarde en 1997 cuando se lleva cabo la primera fase del acuerdo, marcando un hito en la historia de la comunicación celular y  las telecomunicaciones. La versión 99 amplió el estándar GPRS con algunas funciones nuevas, por ejemplo, servicios punto a multipunto y servicios de prepago.
Posteriormente se inicia  en el  2000 como un servicio de datos con conmutación de paquetes integrado en la red de radio celular GSM  En ese momento, con la explosión de Internet, la gente presentó una fuerte demanda tanto de acceso móvil como del Internet, por tal razón, los servicios de datos se convirtieron en la principal dirección de desarrollo de las comunicaciones móviles. el GPRS Desarrollado como un “complemento” de GSM  proporcionaba una tasa de servicio de datos de hasta 114 Kbps o 115kpbs (GPRS)

GPRS se implementó para GSM (2G) cuando HSCSD era aún una opción. Aunque lo soperadores que migraban desde HSCSD, requieren nuevas estaciones móviles con capacidad para múltiples intervalos (que pueden utilizar, por ejemplo, 4 intervalos de tiempo en el enlace descendente y 2 intervalos de tiempo en el enlace ascendente).

GPRS puede permitir velocidades máximas de descarga de hasta 171,2 kbps y velocidades de descarga promedio de alrededor de 30-50 kbps. Se basa en la conmutación de paquetes y es una tecnología de datos eficiente que emplea circuitos compartidos para enviar y recibir paquetes de ráfagas de datos sin comprometer los recursos de la red de forma permanente.

GPRS es el estándar de tecnología de GSM de 2G que has sido más implementado. Los teléfonos móviles pueden estar usando la tecnología 4G (4G, 4G+, LTE o LTE+) para conexión de datos, pero en lugares remotos con poca cobertura de red es posible los clientes GSM pudieran lograr conexión con GPRS.

1999 WAP El Protocolo de aplicación inalámbrica ( WAP)

El Foro WAP fue fundado en 1998 por Ericsson, Motorola, Nokia y Unwired Planet. Buscaba reunir las diversas tecnologías inalámbricas en un protocolo estandarizado. [8] En 2002, el Foro WAP se consolidó (junto con muchos otros foros de la industria) en Open Mobile Alliance (OMA). Este foro describía un protocolos o pila que permitía la interoperabilidad de equipos y software WAP (que proporcionaba un marcado WAP para la compatibilidad con la página web) con diferentes tecnologías de red, como GSM e IS-95 (cdmaOne)  El servicio de mensajería multimedia (MMS, introducido comercialmente en el 2002) es una combinación de WAP y SMS que permite el envío de mensajes con imágenes.

La primera empresa en lanzar un sitio WAP fue el operador de telefonía móvil holandés BV Telfort en octubre de 1999.

Para el año 2013, el uso de WAP había desaparecido, cuando la mayoría de los navegadores de Internet de teléfonos móviles modernos avanzaban en  admitir HTML completo, CSS y la mayor parte de JavaScript, como se cuentan los teléfonos Android (de Google), todas las versiones del teléfono iPhone de (Apple), todos los dispositivos Blackberry, todos los dispositivos que ejecutan Windows Phone y muchos teléfonos Nokia.

Era 2.75G

2003 EDGE (3GPP) Estándar para Transmisión de datos

-Esta tecnología estandarizada por la 3GGP Rev.98 Q1200, como parte de la familia GSM, ha sido adoptada por la ITU como parte de la familia IMT-2000 de estándares 3G.
-Permitió operar en redes TDMA y GSM.

Luego del GPRS, se presentó una tecnología más rápida : la evolución mejorada de la tasa de datos para GSM (EDGE).(Enhanced Data GSM Evolution) como respuesta a que aún operadores que en vez del GPRS optaban por el HSCDS como una versión más económica.

La capacidad aumentada de EDGE es resultado de la utilización de una interfaz de radio modificada, llamada la red de acceso de radio GSM/EDGE (GERAN), proporcionando casi tres veces la capacidad de GPRS. EDGE a su vez emplea un nuevo esquema de modulación, el 8PSK ademas del usado por GSM, el GMSK (modulación de desplazamiento mínimo gaussiano). Este estándar (EDGE) habilita a las redes GSM y TDMA transmitir datos con una velocidad de descarga  de 384 kbps

Caracteristicas:
-La más importante es que puede proporcionar el doble de la tasa de servicio de datos de GPRS sin reemplazar el equipo.
-Al usar 8PSK (para cinco de los nueve esquemas de código (MCS o Modulation Code Scheme)) recibe una palabra de 3 bits por cada cambio en la fase de la portadora.
-Esto efectivamente (en promedio 3 veces en comparación con GPRS) lo que aumenta la velocidad general proporcionada por GSM.
-EDGE, al igual que GPRS, utiliza un algoritmo adaptativo para cambiar la modulación y el MCS (ajuste del esquema de código)  de acuerdo con la calidad del canal de radio, lo que afecta, respectivamente, la velocidad y la estabilidad de la transmisión de datos.
-Además, EDGE introduce una nueva tecnología que no estaba en GPRS, la redundancia incremental (creciente redundancia), según la cual, en lugar de reenviar paquetes dañados, se envía información redundante adicional, que se acumula en el software del receptor. Esto aumenta la posibilidad de decodificar correctamente un paquete dañado y reduce el tiempo de recepción.
-EDGE proporciona transmisión de datos a velocidades de hasta
474 kbps en modo de conmutación de paquetes (8 intervalos de tiempo y
59,2 kbps en el esquema de codificación MCS-9, por slot(1 intervalo de tiempo)), cumpliendo así con los requisitos de la Unión Internacional de Telecomunicaciones para redes 3G.

EDGE se elaboro en base a las mejoras que aportaron  GPRS y HSCSD, se lanzó, considerando los estándares europeos, entre GPRS y 3G UMTS y, a menudo, se lo conoce como 2.75G. Con el tiempo, EDGE también desempeña un papel clave en el Internet celular de las cosas (CIoT), donde el requisito de velocidad de datos es bajo. Cambio el tipo de modulacion a 8-PSK, y hace mejor uso de la portadora de 200kHz usada en GSM, consolidándose como estándar en la carrera por definir la transmisión de datos de alta velocidad en las redes 3G.

A pesar de que EDGE no requiere cambios de hardware en la parte NSS de la red GSM, el subsistema de la estación base (BSS) debe actualizarse; es necesario instalar transceptores que admitan EDGE (modulación 8PSK) y actualizar su software. También se requieren los propios teléfonos, que brindan soporte de hardware y software para los esquemas de código y modulación utilizados en EDGE . El primer teléfono celular compatible con EDGE (Nokia 6200),

EDGE se introdujo por primera vez en 2003: AT&T implementó en América del Norte, en su propia red GSM la primera red EDGE (EDGE sobre GSM) del mundo en 2003.

Era 2.9G

EDGE (EGPRS)

Enhanced Data rates for GSM Evolution (EDGE) conocido como Enhanced GPRS (EGPRS), IMT Single Carrier (IMT-SC),o  “Enhanced Data rates for Global Evolution”

La compatibilidad con EDGE en una red GSM requirió ciertas modificaciones y mejoras.
-EDGE proporcionó mejoras en la tasa de datos tanto para GPRS como para la tecnología de datos por conmutación de circuitos HSCSD aumentando la capacidad de este servicio.
EDGE presento las opciones para mejorar y operar con los canales de trasmisión de datos de tecnologías vigentes, los “Enhanced” (E):
:: ECSD a través del canal CSD (tecnología ECSD dentro de EDGE)
:: EHSCSD sobre el canal HSCSD (tecnología EHSCSD dentro de EDGE)
:: EGPRS: a través del canal GPRS (tecnología EGPRS dentro de EDGE).

La parte de EDGE que mejora las velocidades de datos de GPRS se denomina E-GPRS o Enhanced GPRS (GPRS Mejorado), Es decir EGPRS dentro de EDGE) Lo que se indica con una “E” en las pantalla de los teléfonos ,

Resumen de la Red de comunicación móvil de las Generaciones 2.5 y 2.75

Es también la primera era de red digital, Significo la introducción de la red de paquetes  con GPRS (1993) para proporcionar transferencia e Internet de alta velocidad de datos. Nació con el estándar GSM (1991), tenía más ancho de banda, y con ello mayor velocidad, nuevos servicios Mensajes cortos SMS (1992) y conexión a la red vía WAP (1999)

  • Año – 2000- 2003
  • Estándares – Servicio General de Paquetes de Radio (GPRS) y EDGE (Velocidades de datos mejoradas en GSM)
  • Frecuencia: 850 -1900 MHz
  • Velocidad – 115kpbs (GPRS) / 384 kbps (EDGE)
  • Conmutación – Conmutación de paquetes para la transferencia de datos
  • Multiplexación – desplazamiento mínimo gaussiano keying-GMSK (GPRS) y EDGE (8-PSK)
  • Servicios – pulsar para hablar, multimedia, información basada en la web de entretenimiento, soporte WAP, MMS, SMS juegos móviles, búsqueda y directorio, acceso a correo electrónico, videoconferencia.

Era 3G

Las frecuencias utilizadas comienzan a multiplicarse ocupando bandas de frecuencia aún más altas: 850, 900, 1800 y 2100 MHz. La velocidad de descarga pasa de 384 Kbps (usado por la tegnologia EGDE en 2G) a 21 Mbps, llevando Internet a los teléfonos móviles: 3G, de hecho, es el estándar del primer smartphone.[11]

En la evolución de 2G a 3G  el servicio de trasferencia de datos fue incrementándose de acuerdo a como aumentaban la demanda y los servicios:
10 Kbps Voice
10 Kbps E-mail
100 Kbps Database access Information services
100 Kbps Telebanking Financial services
1 Mbps Electronic newspaper, Images / sound files
1 Mbps Teleshopping
10 Mbps Video telephony
10 Mbps Video conferencing

Las Frecuencias:

Tabla de frecuencias (limites aproximados)

MHz(4G) MHz (2G) MHz (2G) MHz (3G) MHz(4G)
850-950 1400-1500 1700-2200
ITU Allocations for 700

Low Capacity

Good Area and Depth of

Coverage

1880-1885  (IMT2000)
1920-1980 (IMT2000)
1980-2010 (IMT2000)
2010-2025 (IMT2000)
2500-2570 (IMT-E)

2110-2170 (IMT2000)
2170-2200 (IMT2000)
2620-2960 (IMT-E)

2600

High Capacity

Poor Area and Depth of

Coverage

Europe, China 880-915, (E-GSM,GSM 900)
925-960 (E-GSM,GSM 900)
1710-1785, (GSM 1800)DCS
1805-1880 (GSM 1800) DCS
1880-1885 (DETC)
1918-1980 (UMTS)
1980-2010 (MSS)
2010-2025 (-)

2110-2170 (UMTS)
2170-2160 (MSS)

Japan 810-826 (PDC)
940-956 (PDC)
1429-1477 (PDC)
1427.9-1447.9 (Lower PDC)
1447.9-1462.9 (Upper PDC)

1453-1501 (PDC)
1475.9-1495.9 (Lower PDC)
1495.9-1510.9 (Upper PDC)
1880-1895 (PHS)
1920-1980 (IMT2000)
1980-2010 (MSS)

2110-2170 (IMT2000)
2170-2160 (MSS)

USA 824-849 (celular IS-95)
869-894 (celular IS-95)
1850-1910  (PCS)
1930-1990  (PCS)
*(PCS se subdivide en~12 mas)
1980-2010 (MSS)

2110-2170 (Reservado)
2170-2160 (MSS)

Brasil, Peru, Colombia,Venezuela, Bolivia,Uruguay 1918-1980 (UMTS)
2110-2170 (UMTS)
Advanced Wireless Services (AWS) is a wireless telecommunications spectrum band used for mobile voice and data services, video, and messaging. AWS is used in the United States, Argentina, Canada, Colombia, Mexico, Chile, Paraguay, Peru, Ecuador, Trinidad and Tobago, Uruguay and Venezuela. It replaces some of the 1710-1755, (AWS-1)
2110-2155 (AWS-1)
(AWS-1 se subdivide en~9 mas)

1998 * 3GPP. Organización de estándares

Para poder competir con los Estados Unidos, el ETSI europeo también estableció conjuntamente el 3GPP (Proyecto de asociación de tercera generación) con Japón, China, etc., para cooperar en la formulación de estándares globales de comunicaciones móviles de tercera generación.

CWTS
ARIB
TTC (Telecommunications Technical Committee)
TTA
ETSI
SCT1TC  (Standars Committee T1 Telecommunications)

El 3GPP creo el PCG (Project Coordination Group)  y 5 TSG (Technical Specification Group) para desarrollar los estandares:
TSG RAN (Radio Access Network)
TSG CN (Core Network)
TSG T (Terminals)
TSG SA (Service and System Aspects)
TSG GERAN (GSM/EDGE Radio Access Network)

En contraste, el campo norteamericano tiene opiniones diferentes.

Los estándares 3GPP se someten a cambios continuos. Para garantizar que haya un lanzamiento organizado de la nueva funcionalidad, se producen nuevos lanzamientos de los estándares en los tiempos planificados.

Para las nuevas versiones de 3GPP, hay un cronograma de versiones que contenía introducciones establecidas de nuevas funciones y esto representa el trabajo de varios Grupos de Especificaciones Técnicas y Grupos de Trabajo.

Los primeros lanzamientos de 3GPP se denominaron Fase 1 y Fase 2. Después de esto, a los lanzamientos se les dio el año de los lanzamientos anticipados, pero después del lanzamiento 99, volvieron a números de lanzamiento específicos. La versión 4 también se conocía como 3GPP versión 2000.

Temas de la versión 3GPP

3GPP Phase 1 reflejó la primera introducción de GSM. El trabajo en GSM fue el enfoque principal hasta la versión 98.

La versión 99 de 3GPP fue la primera versión del estándar UMTS/WCDMA, y el trabajo sobre esto continuó con la introducción de HSDPA, HSUPA para formar HSPA.

3GPP Release 8 vio la primera introducción de LTE y esto se actualizó constantemente con mejoras de LTE con LTE-A y mejoras en muchas áreas.

Continuando, 3GPP Release 14, Release 15 y Release 16 incluirán las tecnologías 5G. Inicialmente, la versión 14 de 3GPP incluirá elementos que se construyen hacia 5G, los dos siguientes incluirán las especificaciones reales para ello.

Resumen y cronograma de lanzamiento de 3GPP

La siguiente tabla proporciona las fechas aproximadas y algunas de las características más destacadas de las diferentes versiones de 3GPP para sus estándares.

Lanzamientos 3GPP
Lanzamiento de 3GPP Fecha de lanzamiento Detalles
Fase 1 1992 G/M básico
Fase 2 1995 Funciones GSM, incluido el códec EFR
Lanzamiento 96 Q1 1997 Actualizaciones GSM, datos de usuario de 14,4 kbps
Lanzamiento 97 Q1 1998 Funciones adicionales GSM, GPRS
Lanzamiento 98 Q1 1999 Funciones adicionales GSM, GPRS para PCS 1900, AMR, EDGE
Lanzamiento 99 Q1 2000 3G UMTS que incorpora acceso de radio WCDMA
Lanzamiento 4 2T 2001 Red principal UMTS totalmente IP
Lanzamiento 5 Q1 2002 IMS y HSDPA
Lanzamiento 6 Q4 2004 HSUPA, MBMS, mejoras IMS, Push to Talk over Cellular, operación con WLAN
Lanzamiento 7 Q4 2007 Mejoras en QoS y latencia, VoIP, HSPA+, integración NFC, EDGE Evolution
Lanzamiento 8 Q4 2008 Introducción de LTE, SAE, OFDMA, MIMO, Dual Cell HSDPA
Lanzamiento 9 Q4 2009 Interoperabilidad WiMAX / LTE / UMTS, Dual Cell HSDPA con MIMO, Dual Cell HSUPA, LTE HeNB
Lanzamiento 10 Q1 2011 LTE-Advanced, compatibilidad con versiones anteriores de la versión 8 (LTE), HSDPA de múltiples celdas
Lanzamiento 11 Q3 2012 Redes Heterogéneas (HetNet), Multipunto Coordinado (CoMP), Coexistencia In device (IDC), Interconexión IP Avanzada de Servicios,
Lanzamiento 12 marzo 2015 Operación mejorada de celdas pequeñas, agregación de portadoras (2 portadoras de enlace ascendente, 3 portadoras de enlace descendente, agregación de portadoras FDD/TDD), MIMO (modelado de canales 3D, formación de haces de elevación, MIMO masivo), MTC – UE Cat 0 introducido, comunicación D2D, mejoras de eMBMS.
Lanzamiento 13 Q1 2016 LTE-U / LTE-LAA, LTE-M, formación de haces de elevación / MIMO de dimensión completa, posicionamiento en interiores, LTE-M Cat 1.4MHz y Cat 200kHz presentados
Lanzamiento 14 mediados de 2017 Elementos en camino a 5G
Lanzamiento 15 Fin de 2018 Especificación 5G Fase 1
Lanzamiento 16 2020 Especificación 5G Fase 2
Lanzamiento 17 ~septiembre 2021

Cabe señalar que cada versión actualiza todos los estándares 3GPP, incluso los estándares GSM se actualizan en las diversas versiones 3GPP.

Los estándares y especificaciones de 3GPP cubren todos los aspectos de los sistemas de comunicaciones celulares/móviles desde la red de acceso de radio hasta la red, facturación, autenticación y mucho más.

Cada lanzamiento de 3GPP actualizará muchos elementos, muchos de los cuales no aparecerán en los titulares.

1997 * CellWeb (Bell Northern Research)

En 1997, en el centro de investigación y desarrollo inalámbrico de Nortel Networks en Richardson, Texas, la división inalámbrica de Bell Northern Research había desarrollado una visión de «una red inalámbrica totalmente de protocolo de Internet (IP)» que tenía el nombre interno «Cell Web»

1998 * 3GIP Estándar   ( AT&T)

AT&T lanzó una iniciativa global a la que llamaron «3GIP», un estándar inalámbrico de tercera generación basado «de forma nativa» en el Protocolo de Internet. Inicialmente, los principales participantes incluían a British Telecom , France Telecom , Telecom Italia y Nortel Networks, pero finalmente se les unieron NTT DoCoMo , BellSouth , Telenor , Lucent , Ericsson , Motorola, Nokia y otros

1999 * iMode (Japon)

Lanzado en 1999 el iMode que permite el acceso a internet (como el europeo WAP) a sitios seleccionados, juegos interactivos, recuperación de informacion y mensajes de texto [8].

1999 * W-CDMA. (3GPP)

W-CDMA: Wide-Code-Division Multiple Access
UTRA-FDD :
UMTS Terrestrial Radio Access-Frequency Division Duplex

El campo europeo representado por Nokia, Ericsson y Alcatel reconoce claramente las ventajas de CDMA. Por lo tanto, han desarrollado un sistema W-CDMA con principios similares para el UMTS.

Asi se creó una variante de la técnica de acceso al medio CDMA, estandarizada para el sistema de redes UMTS. Funciono como la actualización de la interfaz de radio de las redes GSM (2G). Es por tanto un Estándar de interfaz de rádio lo que se denomina UTRA, más no un método de acceso al canal, sino acceso al UMTS que habilita los datos en los usuarios o dispositivos móviles.

Se llamo W-CDMA (Wide-CDMA) porque el ancho de banda de su canal alcanza los 5 MHz, que es más ancho que los 1,25 MHz de CDMA2000, sin embargo solo 3.84 MHz es usado, el restantes se usa como canal de guarda

Las especificaciones W-CDMA se originaron en el grupo 3GPP Radio Access Network (RAN) y se congelaron en la Versión 99; Este admite el modo FDD aunque es parte de la familia de estándares 3G ITU IMT-2000, familia que admite las variantes con los modos dúplex por división de frecuencia (FDD) y dúplex por división de tiempo (TDD).

Con esta técnica de modulación de espectro ensanchado, en una canal que ya no son estrechos y dedicados, sino uno solo mucho más amplio y compartido por múltiples usuarios, donde la transmisión es codificada en el canal, luego en el receptor, un decodificador, con conocimiento del código, selecciona la señal deseada de muchas que usan la misma banda, pero se mostrán como ruido.

La implementación de W-CDMA constituyo un desafío técnico debido a su complejidad y versatilidad. La complejidad de: los algoritmos individuales, del sistema en general y la computacional de un receptor. Los cómputos a nivel de enlace W-CDMA son más de 10 veces más intensivas que las de segunda generación. En la interfaz W-CDMA, diferentes usuarios pueden transmitir simultáneamente a diferentes velocidades de datos y las velocidades de datos pueden incluso variar en el tiempo. Las redes UMTS debieron admitir todos los servicios de 2G y numerosas aplicaciones y servicios de la 3G[–]

El primer servicio W-CDMA comercial del mundo, FOMA, fue lanzado por NTT DoCoMo en Japón en 2001.

En otros lugares, las implementaciones de W-CDMA generalmente se comercializan bajo la marca UMTS.

1999 * IMT-2000

International Mobile Telecommunications-2000 , Para 1985 la UIT a través de in grupo de estudio considero las especificaciones para los futuros servicios públicos de telefonía móvil terrestre (FPLMTS), específicaciones que se convirtieron en base del IMT-2000, o estándares de celulares de 3ra generación (3G)

Feb. 1992 Malaga, La UIT “ITU-R World Radio Conference” identifica las bandas de frecuencia del IMT2000
Jan. 1998 Paris, la ETSI seleciona el “W-CDMA for paired (FDD) and TD-CDMA for unpaired (TDD)”, para la operación del UMTS, además de los 5 modos
! Nov. 1999 Helsinki La UIT aprobó cinco interfaces de radio para IMT-2000 (IMT-2000 Radio Interface specifications), incluyendo por tanto los modos FDD y TDD aprobados en la ITU meeting (M.1457) como parte de la Recomendación UIT-R M.1457.
! Dec. 1999 Nice 3GPP aprobó la “UMTS Release’99 specifications” tanto para FDD como TDD .
! Mar. 2001 Palm Springs 3GPP approves UMTS Release 4 specifications both for FDD and TDD

Se habían desarrollado dos métodos generales de acceso al canal

CDMA
TDMA

Se habían desarrollado dos modos de operación para el estándar UMTS

FDD: Frequency Division Duplex
TDD: Time Division Duplex

Se habían desarrollado las interfaces de aire o métodos generales de acceso al canal para los estándares.

-cdma2000 1x (en cdma2000): fue luego actualizado como cdma2000 1xEV-DO en estándar (IS-856) (de Evolution-Data Optimized,para datos) y 1X Advanced (Rev.E)  para voz

W-CDMA (en UTRA FDD) : fue luego actualizado como HSPA, HSPA+, etc
Usa un espectro mas ancho en CDMA
TD-CDMA (en UTRA TDD LCR) usa TDMA y CDMA:
TD-SCDMA (en UTRA TDD HCR) usa TDMA y CDMA síncrono (uplink) adaptativo
Ambos usan 15 Time Slots con porcentajes fijos para datos de Uplink y Downlink en intervalos de 5MHz y de 1.6MHz respectivamente

Redes UMTS que usan UTRA FDD se conocen como UMTS FDD
Redes UMTS que usan UTRA TDD LCR se conocen como UMTS TDD LCR
Redes UMTS que usan UTRA TDD HCR se conocen como UMTS TDD HCR
Y sin embargo estas últimas redes (TD-SCDMA/UTRA TDD HCR)) son incompatibles con las dos primeras (W-CDMA/UMTS FDD y TD-CDMA/UMTS TDD LCR))

Se habían desarrollado 2 técnicas de multiplexacion  que permitían el acceso al medio, CDMA y TDMA
Con ellas se desarrollaron y emplearon 5 técnicas de interfaces de radio terrestre.

DS-CDMA (en CDMA, Direct Spread) donde 3GPP genero el UTRA FDD
con W-CDMA
MC-CDMA (en CDMA, Multi Carrier) donde 3GPP2 genero el cdma2000
TDD-CDMA (en CDMA y TDMA) donde 3GPP genero el UTRA TDD LCR/HCR
con TD-CDMA y TD-SCDMA
CS-TDMA(en TDMA, Single Carrier) donde TIA TR45.3 genero el UWC-136
FDMA/TDMA(en TDMA) donde ETSI genero el DECT

En ellos se basan libremente en ciertos atributos:
-Uso de CDMA,
-Soporte de usuarios tanto fijos, como móviles bien sea peatonales y vehiculares,
-admitir servicios de voz, datos y multimedia.

Los dos modos (o medios) de acceso:

Modo FDD (Frequency Division Duplex)

-Frecuencias en pares (2 Paired)
– las transmisiones en un terminal son Bandas de frecuencia diferentes para la de subida (uplink) y bajada (downlink), que separadas entre sí (Duplex Distance)
-Este esquema es útil para transmitir usando conmutación de circuitos, ya que ofrece una QoS una vez realizada la conexión.
-Apropiado para macro y micro celdas y para ambientes con una alta movilidad, con tasas de hasta 384 Kbps.

Modo TDD (Time Division Duplex)

-Frecuencias sin par (1 unpaired)
-Las transmisiones de subida (uplink) y bajada (downlink) en un terminal usan el mismo canal o Banda de frecuencia. Para evitar la interferencia, se utiliza intervalos de tiempo (slots), agrupando 15 de ellos, para transferir los datos en un tiempo para la subida (uplink) y en otro para la bajada (downlink).
-Este modo es útil para micro y pico celdas y para ambientes con una baja movilidad, consiguiendo hasta 2 Mbps en  trasnmisiones tanto asimétricas como simetricas.
-En trasmisión asimétrica se usan grupos de slots continuos para Uplink y otros también continuos para downlink. La proporción de slots varia de acuerdo al servicio multimedia que se brinda sin desperdiciar la capacidad del canal, por ejemplo pueden ser:
DL:85% UL:15%  : Telebanking, Database Access
DL:85% UL:15%  : Videoconferencing, Videotelephony
DL:15% UL:85%
DL:85% UL:15%  : m-Commerce
DL:85% UL:15%  : Electronic Newspapers, Soundfiles
DL:75% UL:25%  : Email
DL:25% UL:75%
DL:50% UL:50%  : Games

Las estructuras de las celdas como son estructuradas por UMTS son:

Macro Cell (FDD-Mode)
! Range: 350 m up to 20 km (outdoor)
! Suburban / rural
! High mobility (vehicle speed)
! Approximately 144 kbps

Micro Cell (FDD-/TDD-Mode)
! Range: some 50 – 300 m
! Hot spots
! Medium mobility (> 10 km/h)
! Up to 384 kbps

‘Indoor’ Pico Cell (TDD-Mode)
! Range: some 10 m
! Office / Home environment and “vertical networks”
! Low mobility (< 10 km/h)
! Up to 2 Mbps

Implementacion

La primera implementación fue en Japón, en octubre de 2001 por la NTT, más tarde ofrecido por otras operadoras de Japón, Corea del Sur, Estados Unidos, entre otros países [8]

2001 FOMA con W-CDMA (Japon). Primer 3G

El primer servicio W-CDMA  comercial del mundo (3G), FOMA, fue lanzado por NTT DoCoMo (División de servicios móviles de la NTT Corp.) en Japón en 2001 junto a la implementación del iMode.

Ya en 2001 ya mas de 3 millones de usuarios usaban iMode, al mismo tiempo que el 3G se centró en estandarizar el protocolo de red de los proveedores. A su vez, los usuarios podían acceder a los datos desde cualquier lugar, lo que permitió que comenzaran los servicios de roaming internacional.

2001 UMTS (3GPP)

En 1996, Europa estableció el foro UMTS (Sistema Universal de Telecomunicaciones Móviles), centrándose en la coordinación de la investigación del estándar 3G europeo.

Las redes UMTS a su vez, se basan en una evolución del CDMA utilizado a partir de la red 2G, a una interfaz de radio de CDMA de banda ancha (el W-CDMA) que permite la migración las redes móviles GSM de 2G a 3G y admite todas las mejoras asociadas, incluidas de las tecnologías de conmutación de paquetes de datos, GPRS y EDGE, además de soportar la integración en términos de traspasos de intertecnología entre redes GSM<->UMTS (IRAT – Inter Radio Access Technology).
UMTS se considera la sucesora de GSM/GPRS.[11]

Fue ofrecido comercialmente en 2001, estandarizado por 3GPP en el 3GPP Release 1999, utilizado principalmente en Europa, Japón, China (sin embargo, con una interfaz de radio diferente, el TD-SCDMA) y otras regiones en las que predominaba la infraestructura del sistema GSM (2G) .

La arquitectura de la red central no cambió porque las mejoras anteriores de GSM, GPRS y EDGE , ya habían introducido nuevos nodos de red, SGSN y GGSN, para la capacidad de conmutación de paquetes.

Las redes UMTS eran compatibles con versiones anteriores, lo que significa que cualquier teléfono móvil 3G aún podía conectarse a las redes 2G GSM. Por lo que los teléfonos móviles solían ser híbridos UMTS (3G) y GSM (2G). Se ofrecían varias interfaces de radio, compartiendo la misma infraestructura: W-CDMA (1999), TD-SCDMA (2009). UMTS inicialmente permitió velocidades máximas de bits de enlace descendente de hasta 2 Mbps.

En Europa se comercializo UMTS como un término general para 3G que incluye la implementación de W-CDMA. En tanto el solo W-CDMA siendo una implementación de UMTS, se refiere a la parte de la interfaz inalámbrica o de Interfaz de Radio.

Con la última versión de UMTS, el HSPA+ , podía proporcionar velocidades máximas de datos de hasta 56 Mbps en el enlace descendente en teoría (28 Mbps en los servicios existentes) y 22 Mbps en el enlace ascendente.

Los anchos de banda de canal de 5 MHz, 10 MHz y 20 MHz eran posibles en UMTS, pero 5 MHz fue el ancho de banda de canal que principalmente se implementó.

La arquitectura de UMTS se basa en dos subredes: la de Telecomunicacion (Tx entre usarios) y la de Gestion (facturación, seguridad de datos, etc)

La operación estaba basada en los componentes

UTRAN : UMTS Terrestrial Radio Access Network : Una red  formada por un conjunto de RNS,RNC y Nodos B (tanto de TDD y FDD), que permite mayor velocidad de transmisión. El UTRAN prepara los datos proveniente de los usuario (UE) para ser enviados al Core Network, y permite conexiones a usuarios (UE) de otras redes.
RNS :(Radio Network Service) que se encargan del acceso de la señales RNC: (Radio Network Controller) gestionan las comunicaciones: Recursos, Tx-Rx de datos. Se conecta a los Nodos B, y a otras RNC, y sirve de interface con el Core Network (CN)
Nodos B: Funciones de Estaciones Base, son tanto de TDD y FDD, los que pueden operar conectados a un RNC. Es la interface con los usuarios (UE).
MSSC: (Mobile Services Switching Center) Da soporte al Core Network
GPRS
: (General Packet Radio Service): Da soporte al Core Network
Core Network: (Nucleo de la Red) Transporta la información de tráfico señalización y conmutación . Se conecta al UTRAN a través de sus RNC.
UE: (User Equipment) terminal Móvil con su Modulo USIM (Universal Subscriber Identity Module) para autenticar el usuario, y por medio de interfaz alámbrica accede al UTRAN a través del Nodo B  permitiendo así finalmente poder acceder al Core Network

(Estándar de interfaz de rádio lo que se denomina UTRA, más no  un método de acceso al canal, sino al UMTS)

El modo UTRA TDD basa su funcionamiento de acceso en TD-CDMA.

Los slots temporales sobre la portadora de radio pueden ser ubicados simétricamente, es decir, hay el mismo volumen datos de subida y de bajada (por servicios de voz) o asimétricamente, cuando no hay el mismo volumen de datos de subida y de bajada (por servicios de datos). Esto facilita hacer un uso eficiente del espectro disponible. Las tasas de bits en ambas direcciones de transmisión pueden diferir significativamente en el caso de utilizar asimetría.

Por lo tanto, podríamos concluir que el modo TDD es particularmente adecuado para ambientes con alta densidad de tráfico y por la cobertura en interiores, donde las aplicaciones requieren altas velocidades de datos y tienden a crear tráfico altamente asimétrico (por ejemplo, acceso a Internet).

2002 (1999) *CDMA2000 / EVO-DO(3GPP2)

Las empresas representadas por Lucent y Nortel (Europa) admiten WCDMA y 3GPP. Sin embargo, Qualcomm (América del Norte) se unió con Corea del Sur para formar la organización de estándares 3GPP2 para competir con 3GPP , El estándar resultante que lanzaron es el CDMA2000 desarrollado en base a CDMA 1X (IS-95) permitiendo la migración de esas redes de 2G al 3G.

CDMA2000 fue ofrecido comercialmente en 2002, utilizado especialmente en América del Norte y Corea del Sur, compartiendo infraestructura con el IS-95 (2G). Los teléfonos móviles solían ser híbridos CDMA2000 (3G) e IS-95 (2G). Aunque CDMA2000 es un estándar 3G, la velocidad máxima inicial no es alta, solo 153 kbps. Solo posteriormente, a través de la evolución a EV-DO (EVolution Data Optimized, aunque su primer sigificado fue EVOlution Data Only), la tasa de datos mejoró significativamente.

El cdma2000 usa la interfaz de aire cdma2000 1x, que usa el mismo dúplex de frecuencia de 1.25 MHz de IS-95, pero al usar canales ortogonales(en Cuadratura) duplica la capacidad hasta los 128 canales.

1X Advanced (Rev.E) es la evolución directa del cdma2000 1x que también se desarrolló posteriormente como estándar  para voz, que cuadruplica la capacidad original del IS-95., también conocido como SVDO/SVLTE , (Simultaneous 1x Voice and EV-DO/LTE data) o simultáneos de voz y datos EV- DO/LTE, es una tecnología que permitio que los teléfonos celulares anteriores con capacidad CDMA2000, pudieran usar datos durante una llamada, lo que solo se encontraba en teléfonos móviles que usaban GSM . En 2011, Verizon lanzó su primer teléfono compatible con SVDO, el HTC Thunderbolt . Al año siguiente, Sprint lanzó su primer teléfono compatible con SVDO, el HTC Evo 4G LTE . Aunque ambos teléfonos fueron compatibles con LTE, que ya permite voz y datos simultáneos, cuando los dispositivos solo tienen cobertura de datos 3G, pudieron usar SVDO para estar en una sesión de datos 3G durante una llamada telefónica. Bajo un operador CDMA2000 1X por ser dedicado a solo voz se garantizar la calidad del servicio. La parte de voz puede tambien desarrollarse como Voz sobre Protocolo de Internet (VoIP) utilzando unoperador de Datos (EV-DO) a expensas de una baja calidad de servicio.
EV-DO, o cdma2000 1x EV-DO (de Evolution-Data Optimized, para datos) Desarrollado a la par del estándar de voz, como su nombre lo sugiere es una interfaz de datos actualizado pudiendo ser usado tanto con CDMA como TDMA, fue desarrollado inicialmente por Qualcomm en 1999 para cumplir con IMT-2000 para un enlace descendente de más de 2 Mbps para comunicaciones estacionarias, en estándar (IS-856) con designación de la ITU como TIA-856. La primera versión (Rev. 0) proporcionó velocidades máximas de descarga de hasta 2,4 Mbps y velocidades máximas de carga de hasta 153 kbps. Posteriormente tuvo dos revisiones  Rev. A (2006) para radiodifusión y descargas con descarga de 3.1 Mbps y carga de 1.8Mbps,en tanto en la última versión de EVDO, la Rev. B (2006)  que con las multiportadoras incremento la velocidad en los usuarios en tres veces (3x)tanto como en descarga de 9.3Mpbs y carga de 5.3 Mbps, y con la actualización de hardware aumento la capacidad y tasa de transmisión con descarga de 14.7 Mbps (con 64QAM el estándar soporta hasta 15Mbps)s y de carga de 5.4 Mbps (valores similares a los alcanzados por HSPA de las redes UMTS (3G)). Dejando una próxima evolución de estas revisiones  bajo la denominación  DO Advanced.[—]
Un cliente de EVO-DO generalmente requiere una tarjeta de datos USB (es decir, un dongle USB o un dispositivo Mi-Fi), permitiéndole a los operadores móviles ofrecer servicios solo de datos que pueden coexistir con sus servicios de voz

Las redes AMPS y D-AMPS se eliminaron gradualmente a favor de CDMA2000(3G) o GSM (2G), que permiten transferencias de datos de mayor capacidad para servicios como WAP (2.5G), sistema de mensajería multimedia MMS (2.5G) y acceso inalámbrico a Internet. Algunos teléfonos llegaron a admitir AMPS (1G), D-AMPS (2G) y GSM (2G), todo en un solo teléfono (usando el estándar GAIT). [2]

2006 TD-CDMA

TD-CDMA: Time-Division- Code-Division Multiple Access
UTRA-TDD HRC : UTRA-TDD 3.84 Mcps High Chip Rate (HCR))
UMTS Terrestrial Radio Access-Time Division Duplex High Chip Rate

TD-CDMA , un acrónimo de, es un método que combina el acceso a canales basado en el uso de espectro ensanchado (CDMA) en múltiples intervalos de tiempo ( TDMA ). TD-CDMA es el método de acceso al canal para UTRA-TDD HCR,

Especificaciones técnicas

Banda de frecuencia: 1900 MHz – 1920 MHz y 2010 MHz – 2025 MHz (TDD)
La Separación de canales es de 5 MHz y la de trama es de 200 kHz
Banda de frecuencia mínima necesaria: ~ 5 MHz, ~ 1.6 MHz con 1.28 Mcps
Codificación de voz: AMR (y GSM EFR) codec.
Codificación de canal: codificación convolucional, Turbo-código para datos de alta transmisión.
La trama de TDMA consiste en 15 timeslots.
Soporta la conexión simétrica.
Datos por conmutación de circuitos y de paquetes.
Modulación QPSK.
Chip rate: 3.84 Mcps o 1.28 Mcps.
El único tipo de Handover posible es el hard handover.
Período de control de la potencia: 100 Hz o 200 Hz UL, ~ 800 Hz DL.

Las interfaces de rádio de UMTS-TDD que utilizan la técnica de acceso al canal TD-CDMA están estandarizadas como UTRA-TDD HCR, que utiliza incrementos de 5 MHz de espectro, cada porción dividida en tramas de 10 ms que contienen quince intervalos de tiempo (15 slots, para un total de 1500 por segundo). Los intervalos de tiempo (TS) se asignan en un porcentaje fijo para el enlace descendente y el enlace ascendente. TD-CDMA se utiliza para multiplexar flujos desde o hacia múltiples transceptores. A diferencia de W-CDMA, no necesita bandas de frecuencia separadas para el flujo ascendente y descendente, lo que permite el despliegue en bandas de frecuencia.

TD-CDMA es parte de IMT-2000, definida como IMT-TD Time-Division (IMT CDMA TDD), y es una de las tres interfaces de rádio UMTS (UTRA), según lo estandarizado por 3GPP en UTRA-TDD HCR. UTRA-TDD HCR está estrechamente relacionado con W-CDMA y proporciona los mismos tipos de canales siempre que sea posible. Las mejoras HSDPA/HSUPA de UMTS también se implementan bajo TD-CDMA.

En los Estados Unidos, la tecnología se ha utilizado para la seguridad pública y el gobierno en la Nueva York y algunas otras áreas. [16] En Japón, IPMobile planeó brindar el servicio TD-CDMA en el año 2006, pero se retrasó, cambió a TD-SCDMA y quebró antes de que el servicio comenzara oficialmente

2007 WiMAX (IEEE 802.16) (interconexión mundial para acceso por microondas)

En 1999, el Comité de Estándares de IEEE estableció un grupo de trabajo para desarrollar estándares de red de área metropolitana inalámbrica. Con la publicación original en 2001, se lanzó oficialmente la primera versión de IEEE 802.16 que se refiere a las implementaciones interoperables de la familia de estándares de redes inalámbricas. Posteriormente se desarrolló el IEEE 802.16m. (2012) Más tarde, el  IEEE 802.16 fue conocido ampliamente como WiMAX (interconexión mundial para acceso por microondas). Adoptando parte de su tecnología de WiBro , un servicio comercializado en Corea, WiMAX se agregó al 3G en 2007.

WiMAX introdujo tecnologías avanzadas como MIMO (multiantena) y OFDM (multiplexación por división de frecuencia ortogonal).La tasa de descarga es significativamente más alta y esto ejerce mucha presión sobre 3GPP.

Por lo tanto, sobre la base de UMTS, 3GPP acelera la introducción de LTE (MIMO y OFDM) para competir con WiMAX. Más tarde, siguió evolucionando hacia LTE-Advanced (2009), y la velocidad se incrementó varias veces.

2009 TD-SCDMA (3GPP)

(Estándar de interfaz de rádio lo que se denomina UTRA, más no  un método de acceso al canal, sino al UMTS).

TD-SCDMA: Time-Division- Synchronous-Code-Division Multiple Access
UTRA-TDD LRC : UTRA-TDD 1.28 Mcps Low Chip Rate (LCR))
UMTS Terrestrial Radio Access-Time Division Duplex Low Chip Rate

Es desarrollada por la CATT (People’s Republic of China by the Chinese Academy of Telecommunications Technology) , Datang Telecom, y  Siemens AG. Está estandarizado por el 3GPP y también pertenece a UMTS. Fue usado en las redes de telecomunicaciones móviles UMTS en China como una alternativa a W-CDMA. Utilizaba  el método de acceso al canal TDMA combinado con un componente síncrono CDMA , en segmentos de espectro de 1,6 MHz, lo que permite el despliegue en bandas de frecuencia aún más estrechas que TD-CDMA. El principal incentivo para el desarrollo de este estándar desarrollado en China fue evitar o reducir las tarifas de licencia que deben pagarse a los propietarios de patentes no chinos. A diferencia de otras interfaces de rádio, TD-SCDMA no formaba parte de UMTS desde el principio, pero se agregó en la versión 4 de la especificación.

El 7 de enero de 2009, China otorgó una licencia TD-SCDMA 3G a China Mobile.

Las redes TD-SCDMA / UMTS-TDD (LCR) resultaron  incompatibles con las redes W-CDMA / UMTS-FDD y con las  TD-CDMA / UMTS-TDD (HCR)

Caracteristicas del 3G

Red móvil 3G

La 3G se implemento por primera vez en Japón en el 2001, con servicio W-CDMA siendo la base del estándar UMTS (Universal Mobile Telecommunications System), que en a su vez, es una evolución basada en el CDMA (de la 2G). Las bandas de frecuencias aumentan ocupando las bandas aún más altas: 850, 900, 1800 y 2100 MHz. La velocidad de descarga pasa de 384 Kbps a 21 Mbps, llevando Internet a los teléfonos móviles donde el 3G, es de hecho, es el estándar del primer smartphone .

-En comparación con 2G, 3G tenía 4 veces más capacidades de transferencia de datos, alcanzando hasta 2 Mbps en promedio . Debido a este aumento, la transmisión de video, las videoconferencias y el chat de video en vivo (como Skype) se volvieron reales. Los correos electrónicos también se convirtieron en otra forma estándar de comunicación a través de dispositivos móviles.
-Sin embargo, lo que hizo que 3G fuera revolucionario fue la capacidad de navegar por Internet (páginas HTML básicas en ese momento) y transmitir música en el móvil.
-Aunque 2G ofrecía las mismas funciones, no eran tan avanzadas como las de 3G en términos de velocidad de descarga.
-A medida que avanzaba la era 3G, se realizaron mejoras en la red, aumentando las velocidades y el soporte. Solo en Canadá, las velocidades de descarga actuales son de casi 6 Mbps .

Equipos

-Aunque los teléfonos “barra de chocolate” (Blackberry lanzó su primer dispositivo móvil en 2002: el BlackBerry 5810)  y plegables eran opciones populares durante la era 3G, los teléfonos inteligentes eran nuevos (En ese momento, había 2 principales competidores de teléfonos inteligentes: Blackberry y Apple). Esta nueva tecnología permitió a los usuarios escuchar música, llamar, enviar mensajes de texto y buscar a través de Internet en sus dispositivos móviles…
-No fue sino hasta 2007 que salió el iPhone original, que pronto dominaría el mercado de teléfonos inteligentes (y teléfonos celulares) en solo unos pocos años. Para 2017, la participación de mercado de Blackberry era del 0%. [6]

Durante este período, China también lanzó su propio programa candidato estándar 3G (también conocido como TD-SCDMA) para participar conjuntamente en la competencia internacional.

Después de una feroz competencia y juego, la Unión Internacional de Telecomunicaciones (UIT) finalmente confirmó los tres estándares 3G globales, a saber, WCDMA liderado por Europa, CDMA2000 liderado por Estados Unidos y TD-SCDMA en China.

En cuanto al progreso de la comercialización de 3G, NTT de Japón vuelve a liderar el camino.

El 1 de octubre de 1998, NTT Docomo lanzó la primera red 3G comercial del mundo (basada en WCDMA) en Japón.

Era 3.75G

2008 3G LTE. Unificación de Estándares de Redes Mobiles

Después de la red 3G y antes del 4G llego el momento, la red 3G LTE, (Long Term Evolution), como la evolución de un estándar de comunicación para mejorar su rendimiento.

LTE fue  propuesta inicialmente en Japon en el 2004 por la  NTT Docomo, posteriormente los estudios oficiales como  estandar oficialmente comenzaron en el 2005
En mayo de 2007, se fundó la alianza LTE/ SAE Trial Initiative (LSTI) como una colaboración global entre proveedores y operadores con la objetivo de verificar y promover el nuevo estándar para asegurar la introducción global de la tecnología lo más rápido posible.
En
El estandar de LTE Más tarde, siguió evolucionando hacia LTE-Advanced (2009).

-La versión 8, fue congelada en diciembre de  2008 , completando el estándar 3GPP Rel.08. donde se   trabajo sobre la base de los estandares  GSM/UMTS, para competir con WiMAX por lo que introduce el LTE (con MIMO y OFDM por la nueva interfaz de radio E-UTRA)., especificó el primer estándar LTE
-La versión 9, congelada en 2009, incluyó algunas adiciones a la capa física, como la transmisión de formación de haces de doble capa (MIMO) o el posicionamiento soporte
-La versión 10, congelada en 2011, introduce en el estándar LTE-Advanced , varias mejoras como el incremento del numero de portadoras, el enlace ascendente SU-MIMO o los relés, con el objetivo de aumentar considerablemente la velocidad máxima de datos de L1 (capa física).
-La versión 13, introduce en el estándar LTE-Advanced-Pro

TeliaSonera en Oslo y Estocolmo el 14 de diciembre de 2009, como una conexión de datos con un módem USB. Los servicios LTE también fueron lanzados por los principales operadores de América del Norte, siendo el Samsung SCH-r900 el primer teléfono móvil LTE del mundo a partir del 21 de septiembre de 2010

Las características de LTE son en gran parte compartidas con la ínterface de radio E-ULTRA:
-LTE usa el desarrollo en los DSP que ya venían siendo usados con los equipos de redes 2G.,
-la arquitectura de redes, es simplificada en primer lugar con la implementación de un sistema basado en IP, llamada Evolved Packet Core (EPC) diseñada para reemplazar la red central de  GPRS(GPRS Core Network), admitiendo traspasos continuos de voz y datos a torres celulares con tecnología de red más antigua, como GSM , UMTS y CDMA2000, En segundo lugar
-La arquitectura simplificada de redes redujo significativamente la latencia y los costos operativos (por ejemplo, cada celda de E-UTRA admitiría hasta cuatro veces la capacidad de datos y voz admitida por HSPA)
-La interface de radio de LTE es incompatible con las tecnologías 2G y 3G por lo que deben operar en un espectro de bandas de frecuencias separadas.
-admite tanto el dúplex por división de frecuencia (FDD) como el dúplex por división de tiempo (TDD)
-LTE admite anchos de banda flexibles que permiten a los operadores móviles utilizar canales de frecuencia más pequeños o más grandes (también conocidos como operadores). Las redes LTE admiten anchos de banda de operador de 1,4 MHz, 3 MHz, 5 MHz, 10 MHz, 15 MHz y 20 MHz. Los operadores más grandes (por ejemplo, 20 MHz) tienen más capacidad y, por lo tanto, pueden permitir velocidades de datos más altas

Lo importante de 3G LTE es la introducción de la tecnología MIMO, Multiple Input, Multiple Output en las redes móviles. Gracias al uso de varias antenas, un terminal MIMO puede intercambiar más datos al mismo tiempo, tanto que en el 2008 la velocidad máxima de descarga de hasta 300 Mbps y velocidades máximas de carga de hasta 75 Mbps. (teóricamente el pico máximo de velocidad  de descarga es hasta 326,4 Mbps y la de la velocidad de subida de 86,4 Mbps) en 20 MHz. La velocidad de descarga promedio de LTE es de alrededor de 15 a 20 Mbps. y la  QoS permiten una latencia de menos de 5 ms en la red de acceso de radio

Con 3G LTE, los usuarios comenzaron a probar la conexión móvil rápida, que luego se convirtió en el caballo de batalla de las redes 4G.[11]

Sin embargo como la velocidad de la evolución del W-CDMA, el HSPA+ fue tan rápida que incluso supera a los primeros LTE y WiMAX, en ese momento, algunos operadores (como T-Mobile en los Estados Unidos) no iniciaron de inmediato la construcción de LTE. A su vez, actualizaron la red HSPA existente a HSPA+. China hizo algo similar en ese momento.

2010 (2009) HSPA+ de UMTS

Inicialmente en las revisiones de actualización (Release) de W-CDMA se desarrollaron dos estándares:
HSDPA: fue estandarizado por 3GPP en marzo de 2002 (revisión 5 de WCDMA), implementado comercialmente a finales de 2005, buscaba Mejorar el QoS, aumentar la tasa se datos de los usuarios, mejorar la eficiencia espectral
HSUPA: estandarizado en diciembre de 2004 (revisión 6 de W-CDMA) para ella la tasa de datos alcanzo  5.76Mbps implementado comercialmente a finales de 2007.

Sobre la base de UMTS, el ETSI y el 3GPP actualizaron el W-CDMA para mejorar las bondades del 3G:

W-CDMA (Wideband Code División Multiple Access) interfaz de radio Inicial, permitió velocidades máximas de bits de enlace descendente de hasta 2 Mbps.
HSDPA del 3GPP Rel.5  (2002).Comercializado el 28 Agosto 2009. con 14,0 Mbps
UL o HSUPA del 3GPP Rel.6 (2004)(High Speed Upload Packed Acces) Comercializado el 28 Agosto 2007 con  5,76 Mbps
HSPA : (High Speed Packed Acces o Acceso a paquetes de alta velocidad) Establecida en 2008. Su como la fusión de dos estándares HSDPA y HSUPA.es una actualización de W-CDMA para aumentar las velocidades de datos móviles, que ofrece velocidades máximas de bajada de 14,4 Mbps (Teóricos) y máxima de subida es de 5,76 Mbps. Considerando que la real de descarga promedio es alrededor de 5 Mbps. Estas velocidades son comparables a las actualizaciones del estándar americano basado en CDMA el EVO-DO Rev.B con 14.7 Mbps de subida y 5.4 Mbps de bajada.
+:En UMTS,
-en cada slot
(ranura), el número máximo de bits transmitidos es 2560 bits. El término correcto para usar es chips en lugar de bits. (lo cual esta especificado en el 3GPP TS 25.211)
– cada trama de 10 ms tiene 15 ranuras, por lo que dado que el TTI para HSDPA es de 2 ms, asi seran 3 ranuras.
Entonces habrá un total de 3×2560= 7680 chips en 2ms
-El QPSK tiene 2 bits por símbolo = 7680 x 2 chips por cada 2ms = 15360 chips/2ms = 15360 x 1000 /2 chips por segundo
Ahora el SF se fija en 16 = (15360 x 1000) / (2 x 16)= 480 kbps
La terminal que usa 15 códigos QPSK obtendrá 480 x 15 = 7.2Mbps
-Por otro lado, 16 QAM tendrá 4 bits por símbolo (2^4=16), por lo que la tasa sería de 7,2 x 2 = 14,4 Mbps.

HSPA +. Su origen fue la revisión 3GPP Rel.7, en 2009. Puede proporcionar velocidades de datos máximas o pico teóricas de hasta 42 Mbps de bajada doblando la capacidad de datos: ,21 Mpbs por canal usando 16QAM y 15 codigos  o 28Mbps por MIMO en 2×2,en un canal de 5MHz y 11.5 Mbps de subida, así como de subida promedio de 3 Mbps. Fue comercializado en 2010. Implementa MIMO (Multiple Input-Multiple output) solo en descarga, Modulacion Digital de orden superior 64 QAM en descarga y 16QAM en carga y arquitectura IP opcional
+:En HSPA+ también tendremos 64QAM que tiene 6 bits por símbolo (2^6 = 64) por lo que la velocidad máxima sería 7,2 x 3 = 21,6 Mbps.

DC-HSPA+ : 3GPP Rel.8 en 2010, Double Carrier (de doble portadora) es decir, dos frecuencia adyacentes de 5 MHz (total de 10MHz) utilizadas para una única comunicación, soportando multi portadoras,y con  42 Mbps de bajada (21 Mpbs por canal usando 16QAM y 15 codigos,  más 28Mbps por MIMO en 2×2) y manteniendo 11.5 Mbps de subida en un canal de 5MHz. Se pueden usar las tecnologías MIMO y DC-HSPA pero estas  son mutuamente excluyentes en la versión 8 de 3GPP (no se pueden usar simultáneamente), de ahí la limitación de velocidad máxima teórica enlace descendente de 42 Mbps para la mayoría de los operadores móviles.
La velocidad de datos máxima en Release-8 HSDPA es de 42 Mbps .
+:En UMTS,
-en cada slot
(ranura), el número máximo de bits transmitidos es 2560 bits. El término correcto para usar es chips en lugar de bits. (lo cual esta especificado en el 3GPP TS 25.211)
– cada trama de 10 ms tiene 15 ranuras, por lo que dado que el TTI para HSDPA es de 2 ms, asi seran 3 ranuras.
Entonces habrá un total de 3×2560= 7680 chips en 2ms
-El QPSK tiene 2 bits por símbolo = 7680 x 2 chips por cada 2ms = 15360 chips/2ms = 15360 x 1000 /2 chips por segundo
Ahora el SF se fija en 16 = (15360 x 1000) / (2 x 16)= 480 kbps
La terminal que usa 15 códigos QPSK obtendrá 960 x 15 = 7.2 Mbps
-Por otro lado, 64QAM que tiene 6 bits por símbolo (2^6 = 64) por lo que la velocidad máxima sería 7.2 x 3 = 21.6 Mbps.
Como son dos canales o portadoras la tasa se duplica a 2 x 21.6 =43.2 Mbps

HSPA+ Advanced: 3GPP Rel.9, en 2011 se expande capacidad del espectro de la doble-portadora en de las bandas de bajada con el “supplemental downlink (SDL)” mejorando la operación HSDPA de doble portadora combinándola con MIMO y añade la doble-portadora al enlace de subida. (operación HSUPA de doble portadora en el enlace ascendente)Asi con doble portadora , la velocidad de bajada de duplica a 84.4 y la de subida a 22 Mbps, en un uso espectral de 10MHz
con 21×2=42 Mbps con (64QAM) y 14×4=56 Mbps (con 16QAM) en bajada teórico (28 Mbps en los servicios existentes)
HSPA+ Evolution
: En el Release 10 permite agregar hasta 4 portadoras en el enlace de bajada, habilitando el despliege de 20 MHz. con 672 Mbps en bajada teorico y lo que con 4 portadoras, esta velocidad de descarga  se convertiriá en 168 Mbps y 22 Mbps en subida

La velocidad de estas tecnologías de red, superior 3G tradicional, es llamado 3.75G.

HSPA puede aumentar la capacidad de varias formas: compartiendo el canal de transmisión, lo que provoca un empleo eficiente de los códigos disponibles y de los recursos de potencia, o teniendo un intervalo de tiempo más corto, que reduce el tiempo de ida y vuelta. HSPA tiene la capacidad para apoyar servicio s no sólo simétricos, también asimétricos con tasas de datos más altas. HSPA se muestra en el teléfono como una “H”,y HSPA+ se muestra en el teléfono como “H+”. HSPA puede además funcionar como un punto de acceso móvil a través de su teléfono o dongle.

EGPRS (2.9G) o GSM EDGE: GPRS (2.5G)+EDGE(2.75G) con 200Kbps.
UTMS (3G ,de la 3GPP  y equipo hibrido con GSM (2G)), con W-CDMA,y luego con sus actualizaciones:
-HSPA con 14.4 Mbit/s down y 5.76 Mbit/s up,
-HSPA+ con 168 Mbit/s  down y 22 Mbit/s up )
cdma2000 (3G de la 3GPP2 y equipo hibrido con CDMA (2G)) , con CDMA2000 y mediante EVDO (EVolution Data Optimized), tuvo 14,7 Mbps (velocidad máxima de carga)up y una de 5,4 Mbps down (velocidad máxima de descarga)
DECT (1995) (Digital European cordless telecommunications) desarrollado por ETSI, estándar utilizado principalmente para crear telefonía inalámbrica. las normas ETSI ETSI EN 300 175 partes 1 a 8 (DECT), ETSI EN 300 444 (GAP) y ETSI TS 102 527 partes 1 a 5 (NG-DECT) prescriben las propiedades técnicas.
Mobile WiMAX (en el 2007) en su primera aparición Rel 1.0 proporiona 46Mbps de bajada y 4Mbps de subida en un espectro de 10MHz con 3:1 TDD. Sufre una revisión  Rel 1.5 en el 2010 y posteriormente en el 2013 se convierde en la norma IEEE 802.16m

Si hoy en día todos somos capaces de
-conectarnos a Internet desde un smartphone común,
-ver un vídeo en YouTube o una película en Netflix
-en cualquier lugar o saber a dónde debemos ir gracias a Google Maps mientras estamos en el coche,

Pero lo cierto es que las redes de telefonía se rigen por la Unión Internacional de Telecomunicaciones (UIT) que creó un comité para definir las especificaciones. Se trata del comité IMT-Advanced que entre otras cosas, define los requisitos mínimos de los dispositivos y redes que son necesarios para que un estándar se considere de la generación vigente

2009 E-UTRA de LTE. Unificacion de Interfaz de Radio

 E-UTRA (Evolved UMTS Terrestrial Radio Access), es una interfaz de radio conocida como una red de acceso por radio (RAN) a la que se hace referencia bajo el nombre EUTRAN
A diferencia de HSPA, E-UTRA de LTE es un sistema de interfaz de aire completamente nuevo, no relacionado e incompatible con W-CDMA . Proporciona tasas de datos más altas, latencia más baja y está optimizado para paquetes de datos. Utiliza OFDMA acceso por radio SC-FDMA en el enlace ascendente. Los ensayos de esta interface comenzaron en 2008

E-UTRAN (Evolved UMTS Terrestrial Radio Access Network) es la combinacion de la interfaz de radio E-UTRA, los equipos de los usuarios (UE), y los nodos eNodeB  (E-UTRAN Node B  Evolved Node B).
E-UTRAN fue desarrollada para ser reemplazo de las redes UMTS y HSDPA/HSUPA especificadas en las versiones 5 y posteriores de 3GPP.

E-UTRA está estructurado en versiones de 3GPP.

-La versión 8, congelada en 2008, especificó el primer estándar LTE
A partir de esta versión, E-UTRA está diseñado para proporcionar una ruta de evolución única para las interfaces de radio de las redes GSM/EDGE , UMTS/HSPA , CDMA2000/EV-DO y TD-SCDMA y permitiendo la provisión de mayores funcionalidades. Esta versión fue la primera implementada comercialmente de LTE
-La versión 9, congelada en 2009, incluyó algunas adiciones a la capa física, como la transmisión de formación de haces de doble capa (MIMO) o el posicionamiento soporte
-La versión 10, congelada en 2011, introduce en el estándar LTE-Advanced , varias mejoras como el incremento del numero de portadoras, el enlace ascendente SU-MIMO o los relés, con el objetivo de aumentar considerablemente la velocidad máxima de datos de L1 (capa física).

Características

EUTRAN tiene las siguientes características:

Velocidades máximas de descarga de 299,6 Mbps para antenas 4×4 y 150,8 Mbps para antenas 2×2 con 20 MHz de espectro en LTE. En tanto ara LTE Advanced admite configuraciones de antena de 8×8 con velocidades máximas de descarga de 2998,6 Mbps en un canal agregado de 100 MHz.
– dúplex por división de frecuencia (FDD) y dúplex por división de tiempo (TDD) máximas de carga de 75,4 Mbps para un canal de 20 MHz en el estándar LTE, con hasta 1.497,8 Mbps en una portadora LTE Advanced de 100 MHz.
Bajas latencias de transferencia de datos (latencia inferior a 5 ms para paquetes IP pequeños en condiciones óptimas), latencias más bajas para el traspaso y el tiempo de configuración de la conexión.
-Soporte para terminales que se mueven hasta 350 km/h o 500 km/h dependiendo de la banda de frecuencia.
Admite Compatibilidad con FDD y TDD , así como FDD semidúplex con la misma tecnología de acceso por radio. Ambos modos tienen su propia estructura de trama dentro de LTE y están alineados entre sí, lo que significa que se puede usar similar hardware en las estaciones base y terminales para permitir una economía de escala. El modo TDD en LTE está alineado con TD-SCDMA y también permite la coexistencia. Hay conjuntos de chips individuales disponibles que admiten los modos de funcionamiento TDD-LTE y FDD-LTE
Soporte para todas las bandas de frecuencia utilizadas actualmente por IMT los sistemas ITU-R .
Ancho de banda flexible: 1,4 MHz, 3 MHz, 5 MHz, 10 MHz, 15 MHz y 20 MHz están estandarizados. En comparación, W-CDMA utiliza fragmentos de espectro de 5 MHz de tamaño fijo.
Aumento la eficiencia espectral de 2 a 5 veces más que en la versión 6 de 3GPP ( HSPA )
Compatibilidad con tamaños de celdas desde decenas de metros de radio ( femto y picoceldas ) hasta macroceldas
Arquitectura simplificada: el lado de la red de EUTRAN está compuesto solo por los eNodeB, Con tareas similares a las realizadas por los nodos B y RNC (controlador de red de radio) juntos en UTRAN.
Soporte para la interoperación con otros sistemas (por ejemplo, GSM / EDGE , UMTS , CDMA2000 , WiMAX , etc.)
Interfaz de radio de conmutación por paquetes

Arquitectura

EUTRAN consta solo de eNodeB en el lado de la red. El objetivo de esta simplificación es reducir la latencia de todas las operaciones de interfaz de radio. Dentro del EUTRAN los eNodeB se conectan a los respectivos usuarios (UE) a la vez que están conectados entre sí a través de la interfaz X2 y se conectan a la conmutación de paquetes (PS) que pertenecen al EPC (Evolved Packed Core), a través de la interfaz S1

E-UTRA
-utiliza multiplexación por división de frecuencia ortogonal (OFDM), de entrada múltiple y salida múltiple (MIMO) según la categoría del terminal
-también para el enlace descendente puede usar los haces para admitir más usuarios, velocidades de datos más altas y menor potencia de procesamiento requerido en cada teléfono.
-En el enlace ascendente, LTE utiliza tanto OFDMA como SC-FDMA( una versión precodificada de OFDM denominada “acceso múltiple por división de frecuencia de portadora única”) , según el canal. Esto es para compensar un inconveniente con OFDM normal, que tiene una relación de potencia pico a promedio (PAPR) o “peak-to-average power ratio”. Una PAPR alta requiere amplificadores de potencia más costosos e ineficientes con altos requisitos de linealidad, lo que aumenta el costo del terminal y agota la batería más rápido. Para el enlace ascendente, en las versiones 8 y 9 se admite “MIMO multiusuario/ SDMA (Acceso múltiple por división espacial)”; versión 10 también presenta el SU-MIMO .

En los modos de transmisión OFDM y SC-FDMA, se agrega un prefijo cíclico a los símbolos transmitidos. Hay disponibles dos longitudes diferentes del prefijo cíclico para admitir diferentes canales dispersos debido al tamaño de la celda y al entorno de propagación. Estos son un prefijo cíclico normal de 4,7 μs y un prefijo cíclico extendido de 16,6 μs.

-La transmisión LTE está estructurada en el dominio del tiempo en “tramas de radio”. Cada una de estas tramas de radio tiene una duración de 10 ms y consta de 10 subtramas de 1 ms cada una.
-Para las subtramas que no son  “Servicio de multidifusión de difusión multimedia” (MBMS o “Multimedia Broadcast Multicast Service”), el espacio de la subportadora OFDMA en el dominio de la frecuencia es de 15KHz
-Doce (12) de estas subportadoras de 15 kHz (para un total de 180KHz expandidos en el ancho de banda variable de 1.4 a 20MHz) asignadas juntas durante un intervalo de tiempo de 0,5 ms (que es la ranura de tiempo para 7 símbolos) se denominan bloque de recursos.
Para el Bloque de recursos LTE en dominios de tiempo y su componente ortogonal en el dominio de la frecuencia consta de 12 soportadoras de 15kHz, intervalo de tiempo de 0,5 ms (con prefijo cíclico normal).
-A un terminal LTE se le puede asignar, en el enlace descendente o ascendente, un mínimo de 2 bloques de recursos durante 1 subtrama (1 ms).

dúplex por división de frecuencia (FDD) y dúplex por división de tiempo (TDD) Mientras que FDD hace uso de espectros emparejados para la transmisión UL y DL separados por una brecha de frecuencia dúplex, TDD divide una portadora de frecuencia en períodos de tiempo alternos para la transmisión desde la estación base al terminal y viceversa.

Era 3.9G

2008 IMT-Advanced (Requisitos ITU de 4G)

En 2008, la Unión Internacional de Telecomunicaciones de la UIT emitió los requisitos que debe seguir el estándar 4G y lo denominó al igual que el comité creado para ello: IMT-Advanced. Incluia tasas para un usuario fijo de 1 Gbps (Giga bits por segundo) y para uno en movimiento de 100Mbps(Mega bits por Segundo). En 2010 la UIT decidio que sólo el LTE advanced: LTE-Advanced de 3GPP, WirelessMan-Advanced (Mobile WiMAX):802.16m de IEEE y TD-LTE-Advanced presentados por el Ministerio de Industria y Tecnología de la Información de China, eran los que verdaderamente cumplían los requerimientos con los estándares 4G.

En los EEUU para febrero 2008 (el 18 fue el limite por cronograma de la FCC), todos los operadores AMPS se habían  convertido a un estándar digital como CDMA2000 o GSM. Las tecnologías digitales como GSM y CDMA2000 admiten múltiples llamadas de voz en el mismo canal y ofrecen funciones mejoradas como mensajería de texto bidireccional y servicios de datos.

2009 LTE (Suecia/Noruega) Primera red

El 14 de diciembre de 2009, basada en la revión 8 del estándar de 3GPP,  la telefonica TeliaSonera inauguró en Estocolmo y Oslo la primera red de servicio LTE pública del mundo. Que en ese momento se llamó 4G El equipo de red proviene de Ericsson y Huawei, mientras que el terminal de usuario proviene de Samsung.

Sin embargo, cuando comenzó 4G, en realidad no era 4G . Cuando el ITU-R estableció las velocidades mínimas requeridas para 4G (12,5 Mbps), no era posible en ese momento. En respuesta a la cantidad de dinero que los fabricantes de tecnología estaban invirtiendo para lograr este objetivo, el ITU-R decidió que LTE (evolución a largo plazo) podría etiquetarse como 4G. Pero solo si proporciona una mejora significativa con respecto a 3G. Por ello cuando se comercializo 4G por primera vez, lo que estabas viendo era 3.9G o 3.95G en su lugar.

__

3G llegó a principios de 2002 en enero en Corea del Sur  con SK Telecom y la tecnología 1xEV-DO

En India, el 11 de diciembre de 2008, una empresa estatal, Mahanagar Telecom Nigam Limited (MTNL), lanzó los primeros servicios móviles e Internet 3G

en España hizo su debut en 2005

Resumen de la Red de comunicación móvil de la Generación (3G)

El objetivo de los sistemas 3G fue ofrecer aumento de las tasas de datos, facilitar el crecimiento, mayor capacidad de voz y datos, soporte a diversas aplicaciones y alta transmisión de datos a bajo coste. Los datos se envían a través de la tecnología de una tecnología llamada Packet Switching. Las llamadas de voz se traducen mediante conmutación de circuitos.

  • Año – 2000
  • Estándares:
    • UMTS (WCDMA) basado en GSM (Global Systems for Mobile) infraestructura del sistema 2G, estandarizado por el 3GPP.
    • CDMA 2000 basado en la tecnología CDMA (IS-95) estándar 2G, estandarizada por 3GPP2.
    • interfaz de radio TD-SCDMA que se comercializó en 2009 y sólo se ofrece en China
  • Velocidad: 384Kbps 2Mbps
  • Frecuencia: aproximadamente 8 a 2,5 GHz
  • Ancho de banda: de 5 a 20 MHz
  • Tecnologías de multiplexación y acceso
  • interfaz de radio llamada WCDMA (Wideband Code División Multiple Access)
  • HSPA es una actualización de W-CDMA que ofrece velocidades de 14,4 Mbit / s de bajada y 5,76 Mbit / s de subida.
  • HSPA + puede proporcionar velocidades de datos pico teóricas de hasta 168 Mbit / s de bajada y 22 Mbit / s de subida.
  • CDMA2000 1X: Puede soportar tanto servicios de voz como de datos. La máxima velocidad de datos puede llegar a 153 kbps
  • Servicios – telefonía móvil de voz, acceso a Internet de alta velocidad, acceso fijo inalámbrico a Internet, llamadas de video, chat y conferencias, televisión móvil, vídeo a la carta, servicios basados en la localización, telemedicina, navegación por Internet, correo electrónico, buscapersonas, fax y mapas de navegación, juegos, música móvil, servicios multimedia, como fotos digitales y películas. servicios localizados para acceder a las actualizaciones de tráfico y clima, servicios móviles de oficina, como la banca virtual.
SISTEMA W-CDMA HSPA
Banda de frecuencia
Esquema de acceso múltiple DS-CDMA
Tasa de datos 6
4
Subida: 12 Mbit/s,
Bajada: 21 Mbit/s
Año de introducción
Esquema de modulación BPSK (enlace de subida)
QPSK(enlace de bajada)
16QAM (subida)
64QAM (bajada)
Esquema de acceso a Paquetes HSUPA:
HSDPA:
asignación de los recursos Simetricos y
Asimetricos
Modo de operación FDD/TDD
Ancho de banda de portadoras 5,10,15,20 MHz
Tasa de Chip 3.84/8.192Mcps
Trama 10 ms / 20 ms
Detección Coherente Emplea un canal piloto dedicado. Canal piloto común en enlace de bajada Una sola portadoras para subida y para bajada
Factor de dispersión 4-512
Dispersión (enlace de bajada) Secuencias Gold de longitud 2^18-1
Dispersión (enlace de subida) Secuencias Gold 2^41-1
@ FDD-Component TDD-Component TDD-Component
Multiplex technology W-CDMA TD-CDMA TD-SCDMA
Bandwidth 2*5 MHz paired 1*5 MHz unpaired 1*1,6 MHz unpaired
Frequency Re-use 1 1 1 (or 3)
Handover soft, softer (Interfreq.: hard) hard hard
Modulation QPSK QPSK QPSK and 8-PSK
Receiver Rake Joint Detection Rake (Mobile Station) Joint Detection Rake (Mobile Station)
Chip Rate 3.84 Mcps 3.84 Mcps 1.28 Mcps
Spreading Factor 4 – 256 1, 2, 4, 8, 16 1, 2, 4, 8, 16
Power Control(Range: 80 dB (UL); 30 dB (DL) in steps of.) fast: every 667 µs (0.25 to 1.5 dB) slow: 100 cycles/s (1, 2 or 3 dB) slow: 200 cycles/s (1, 2 or 3 dB)
Frame organization 0.667 / 10 ms 0.667 / 10 ms 0.675 / 5 ms
Timeslots/Frame N.a. 15 7

Resumen técnico FDD

Banda de frecuencia: 1920 MHz -1980 MHz y 2110 MHz – 2170 MHz (Frequency Division Duplex) UL y DL [ más ]
Banda de frecuencia mínima requerida: ~ 2x5MHz
Reutilización de frecuencia: 1
portadores: 4,4 MHz – 5,2 MHz
Número máximo de canales (de voz) en 2x5MHz: ~196 (factor de difusión 256 UL, AMR 7,95 kbps) / ~98 (factor de difusión 128 UL, AMR 12,2 kbps)
Codificación de voz: códecs AMR (4,75 kHz – 12,2 kHz, GSM EFR=12,2 kHz) y SID (1,8 kHz)
canal: codificación convolucional, código Turbo para datos de alta velocidad
Duplexor necesario (separación de 190 MHz), conexión asimétrica compatible
Aislamiento Tx/Rx: MS: 55dB, BS: 80dB
Receptor: Rastrillo
Sensibilidad del receptor: Nodo B: -121dBm, Móvil -117dBm a BER de 10 -3
Tipo de datos: Conmutador de paquetes y circuitos
Modulación: QPSK
Conformación de pulso: coseno alzado raíz, caída = 0.22
Tasa de chips: 3.84 Mcps
Ráster de canal: 200 kHz
Velocidad máxima de datos de usuario (canal físico): ~ 2,3 Mbps (factor de expansión 4, códigos paralelos (3 DL / 6 UL), codificación de 1/2 velocidad), pero interferencia limitada.
Velocidad máxima de datos de usuario (ofrecida): 384 kbps (año 2002), velocidades más altas (~ 2 Mbps) en un futuro próximo. HSPDA ofrecerá velocidades de datos de hasta 8-10 Mbps (y 20 Mbps para sistemas MIMO)
Tasa de bits del canal: 5,76 Mbps
Longitud del cuadro: 10ms (38400 chips)
Número de ranuras / cuadro: 15
Número de fichas/ranura: 2560 fichas
Handovers: Soft, Softer, (interfrecuencia: Hard)
Periodo de control de potencia: Franja horaria = Tarifa 1500 Hz
Tamaño de paso de control de potencia: 0,5, 1, 1,5 y 2 dB (variable)
Rango de control de potencia: UL 80dB, DL 30dB
Potencia pico móvil: Clase de potencia 1: +33 dBm (+1dB/-3dB) = 2W; clase 2 +27 dBm, clase 3 +24 dBm, clase 4 +21 dBm
Número de códigos únicos de identificación de estación base: 512 / frecuencia
Factores de dispersión de la capa física: 4 … 256 UL, 4 … 512 DL

Era 4G

La IMT-Advanced (Requisitos ITU de 4G) había unificado y establecido en el 2008 los requisitos para las tecnologías que podrían ser definidas como 4G.
Hasta las tecnologías 3G las estandarizaciones seguían camonos separados, principalmente por los estandares Americanos y los Europeos
El LTE desde su aparición se perfilo como unificar la ruta de desarrollo de los estandares.

A partir de un mínimo de 12,5 Mbps [6.1], 4G proporcionó transmisión de video/chat de alta calidad, acceso rápido a la web móvil, videos HD y juegos en línea. En comparación con un simple cambio de tarjeta SIM de 2G a 3G, los dispositivos móviles debían diseñarse específicamente para admitir 4G. finalmente fue capaz de proporcionar has 1Gbps

-El sistema móvil está basado totalmente en IP.
-El objetivo principal es proporcionar alta velocidad, alta calidad, alta capacidad, seguridad y servicios de bajo coste para servicios de voz y datos, multimedia e internet a través de IP.
-Para usar la red, los terminales de los usuarios deben ser capaces de seleccionar el sistema inalámbrico de destino.
-La movilidad del terminal es determinate para proporcionar servicios inalámbricos en cualquier momento y en cualquier lugar,.

2011 4G LTE (LTE Advanced), cesión de licencias

En este punto las tecnologías de redes UMTS (3G) y cdma2000 (3G) se actualizan, migrando a 4G mediante 4G LTE. Los proveedores de 4G permitirían a los usuarios con la SIM 4G que son provenientes de tecnología basada en GSM podrán usar GSM (2G), UMTS (3G) y LTE (4G), sin embargo  lo provenientes de tecnologías basadas en CDMA solo se podría conectar a redes LTE(4G), para poder acceder a redes basadas en cdmaOne(2G) y CDMA2000(3G) se necesitaría habilitar en el teléfono la capacidad de “CDMA-SIM” (CSIM) que esta integrada al dispositivo movil y no esta relacionado con la conexión de 4G LTE,y es lo que se llamaria Módulo de identidad del suscriptor CDMA. Esto dado que en 2G y 3G la tecnología CDMA no utilizaban las tarjetas SIM.

-introdujo una nueva técnica, Carrier Aggregation , que puede combinar múltiples operadores para aumentar el ancho de banda total del operador.
-puede admitir la agregación de operadores de hasta cinco (5) operadores. Por ejemplo, un operador móvil puede combinar cinco (5) canales de 20 MHz para lograr un ancho de banda total de 100 MHz (5 x 20 MHz = 100 MHz).
-La otra mejora notable en LTE-Advanced es la configuración de antena mejorada. En LTE-Avanzado, el de Entrada Múltiple Salida Múltiple (MIMO) sube a 8 x 8 en el enlace descendente, lo que significa ocho capas de transmisión desde la estación base hasta el equipo del usuario. MIMO y la agregación de portadoras se complementan entre sí y mejoran las tasas de datos mediante el uso eficiente de los recursos de la red.
-emplea una modulación de orden superior de 256 QAM (modulación de amplitud en cuadratura) en comparación con 64 QAM en el LTE original para ofrecer una mayor tasa de bits por símbolo. Como resultado, LTE-Advanced y LTE-Advanced Pro pueden permitir velocidades máximas de datos de hasta 1 Gbps y 3 Gbps respectivamente. Sin las tasas de datos promedio para LTE Advanced son alrededor de 60-80 Mbps.

4G LTE,o LTE Advanced; pertenece a la cuarta generación de redes de Internet Móvil, comienza el 27 de junio de 2011, cuando se publica el anuncio de cesión de licencias. Mejora LTE mediante la agregación de portadoras y técnicas avanzadas de antena y modulación. Las velocidades aumentan enormemente siendo las velocidades máximas de descarga de datos hasta 1 Gbps, y velocidad de descarga promedio de 50-80 Mbps. creando las condiciones para la explosión de las comunicaciones y posibilidades móviles actuales: transmisión de video HD y 4K, transmisión de música de alta calidad e Internet de las cosas (IoT), con dispositivos que siempre están disponibles. conectados y controlables en cualquier lugar. Asi como del Internet celular de las cosas (CIoT). Los pagos online, gracias a la estabilidad de 4G, se extendieron considerablemente, lo que también llevó al nacimiento de criptomonedas como Bitcoin.

Dentro de unos años, sin embargo, surgio el verdadero límite de la red 4G, que no es la velocidad, sino la latencia, que es el tiempo que transcurre entre la solicitud de un dato y su llegada real al teléfono inteligente del usuario.[11]. Se puede ver en la pantalla del teléfono móvil como  4G+
Blackberry lleva los correos electrónicos a los teléfonos móviles, Apple lanza la App Store en 2008, llegan las videollamadas y vamos más allá de los SMS gracias a Whatsapp.[11]

A mediados de 2011, Canadá lanzó su primera red inalámbrica LTE en Ottawa, Ontario, gracias a Rogers. El lanzamiento ofreció velocidades de poco menos de 12,5 Mbps y lo etiquetó como 4G LTE. Hoy, sin embargo, las velocidades son más rápidas. En 2020, la velocidad de descarga 4G promedio de Canadá fue de 55,5 Mbps.

Durante el reinado de 4G, los teléfonos celulares inteligentes más vendidos incluyeron el iPhone 6 de Apple con 22,4 millones de unidades y el Samsung Galaxy S4 con 80 millones de unidades el teléfono móvil con Android más vendido de la historia[6]

Después de una feroz guerra industrial, LTE finalmente derrotó a WiMAX y obtuvo apoyo y reconocimiento mundial. WiMAX rápidamente perdió energía y fue derrotado.

4G LTE Advanced Pro

agrega de portadores superiores a las de LTE-Advanced. Con velocidad pico de descarga de 3Gbps

Se puede ver en la pantalla del teléfono móvil como LTE+

Resumen de la Red de comunicación móvil de la Generación 4G

  • Inicio – años de 2010. En 2008, la UIT-R especifica los requisitos para los sistemas 4G
  • Estándares – Long-Term Evolution Time-Division Duplex (LTE-TDD y LTE-FDD) estándar WiMAX móvil (802.16m estandarizado por el IEEE)
  • Velocidad – 100 Mbps en movimiento y 1 Gbps cuando se permanece inmóvil.
  • Telefonía IP
  • Nuevas frecuencias, ancho de banda de canal de frecuencia más amplia.
  • Tecnologías de multiplexación / acceso – OFDM, MC-CDMA, CDMA y LAS-Red-LMDS
  • Ancho de Banda – 5-20 MHz, opcionalmente hasta 40 MHz
  • Bandas de frecuencia: – LTE cubre una gama de diferentes bandas. En América del Norte se utilizan 700, 750, 800, 850, 1900, 1700/2100 (AWS), 2300 (WCS) 2500 y 2600 MHz (bandas 2, 4, 5, 7, 12, 13, 17, 25, 26 , 30, 41); 2500 MHz en América del Sur; 700, 800, 900, 1800, 2600 MHz en Europa (bandas 3, 7, 20); 800, 1800 y 2600 MHz en Asia (bandas 1, 3, 5, 7, 8, 11, 13, 40) 1800 MHz y 2300 MHz en Australia y Nueva Zelanda (bandas 3, 40).
  • Servicios – acceso móvil web, telefonía IP, servicios de juegos, TV móvil de alta definición, videoconferencia, televisión 3D, computación en la nube, gestión de flujos múltiples de difusión y movimientos rápidos de teléfonos móviles, Digital Video Broadcasting (DVB), acceso a información dinámica, dispositivos portátiles.

Era 5G

2019 *5G New Radio (NR)

Lanzado en 2019 , en algunas partes del mundo, los teléfonos móviles y los enrutadores ya pueden alcanzar una velocidad de descarga promedio de 150 Mbps a 200 Mbps.

hay dos modelos de implementación para 5G No independeinte (non-standalone (NSA)) y el Independente (standalone (SA)).

*IMT-2020

El Proyecto de asociación de tercera generación ( 3rd Generation Partnetship Project -3GPP) lanzó 5G (IMT-2020).

The 2G network also allowed us to transfer bits of data from one phone to another, enabling access to media content on cellphones such as ring tones.

5G proporciona precisamente eso.

2019 5G Corea del Sur

Corea del Sur fue el primer país en ofrecer 5G en marzo de 2019. La quinta generación fue implementada por KT, LG Uplus y SK Telecom, todos proveedores de telecomunicaciones de Corea del Sur. 5G en Canadá ya se ha introducido en las principales ciudades.

Caracteristicas

Velocidad o tasa de transmisión de datos:
Algunos expertos ahora afirman que 5G será 20 veces más rápido que 4G.
5G NR puede ofrecer velocidades máximas de descarga de hasta 10 Gbps; sin embargo, las velocidades de descarga promedio están en el rango de 150 a 200 Mbps
De hecho, la velocidad de descarga promedio de 5G en Canadá es de 169,46 Mbps. Un 205% más rápido que 4G
velocidad: 100 veces más rápida que la de 4G. La velocidad potencial máxima de 20 Gbps (Giga bit por segundo) le permite descargar rápidamente grandes cantidades de datos. Por ejemplo: descargar una película tarda unos segundos. Su velocidad es directamente proporcional al número de clientes que se conectarán a la red.

El desafío puede ser la variación de las velocidades de datos porque es posible que su operador de telefonía móvil no tenga las últimas tecnologías en todas las ubicaciones deseadas. Por ejemplo, si tiene el último teléfono móvil 5G y el plan SIM, no significa que obtendrá cobertura 5G donde quiera que vaya. Como resultado, su conexión móvil puede cambiar a una tecnología más baja, por ejemplo, 4G LTE, UMTS, CDMA2000 o GPRS, en áreas donde no tiene la cobertura deseada.

Muchos proveedores ya ofrecen 5G de «banda baja». Esas señales viajan increíblemente lejos, pero tienen aproximadamente la misma velocidad que 4G. La “banda media” está en algún lugar en el medio, ofrece velocidades más rápidas que 4G, pero no es la actualización revolucionaria que la tecnología admitirá eventualmente.

Esto es importante porque significa que las personas con dispositivos compatibles con 5G pueden conectarse a redes 4G que actualmente están mucho más disponibles. Aunque eventualmente, su teléfono 4G será tan útil como un iPhone original que funcionaba con 2G, o un bloque Motorola DynaTac de los años 80, que admitía 1G. Sin embargo, las grandes preguntas con 5G son cuándo lo obtendremos y qué haremos con él una vez que sea estándar.

-Capacidad:
5G aumenta la capacidad de transmisión de datos.
5G funciona mucho mejor en áreas concurridas porque transporta datos en un rango más amplio de frecuencias , por primera vez, utilizando el espectro de ondas milimétricas súper rápido . Las longitudes de onda milimétricas (mmWave) tienen unos pocos milímetros de largo. Son de frecuencia mucho más alta que las ondas de radio que ha usado 4G. Las ondas más rápidas pueden transportar más datos, lo que significa transferencias de datos increíblemente rápidas.

Otra gran diferencia entre 4G y 5G son

-latencia
La latencia sobre 5G se reduce increíblemente, lo que aumentó las velocidades de carga y descarga más rápidas. Comparando los dos, 4G tiene una latencia promedio de alrededor de 50 milisegundos, mientras que se espera que la latencia promedio de 5G sea de aproximadamente 10 milisegundos . También es posible que 5G incluso baje a 1 milisegundo de latencia.
Latencia: 5G tiene un intervalo de tiempo entre el envío de la señal y su recepción de 30 a 50 veces menor que 4G. Esto permite controlar dispositivos y aparatos de forma remota y en tiempo real (vehículos autónomos, operaciones quirúrgicas remotas, gestión del tráfico de carreteras, puertos y aeropuertos, etc.) y monitorizar el estado de las infraestructuras en tiempo real.

-El tamaño del ancho de banda .
5G también tiene un rango de frecuencia más grande (entre 30 GHz y 300 GHz), lo que admite más tecnologías y más dispositivos. 5G es un requisito esencial de las implementaciones masivas de IoT, necesario para las ciudades inteligentes y otras industrias.

Frecuencias:
Las frecuencias de transmisión de señales previstas para la tecnología 5G son: 700 MHz (la que utilizan actualmente los televisores), 3600-3800 MHz y 26 GHz (explotación de ondas electromagnéticas que utilizan frecuencias superiores a las que se utilizan en la actualidad).[11]

-Consumo de energía:
las celdas 5G tienen un consumo de energía muy limitado incluso cuando están bajo carga y deberán estar equipadas con un modo de ahorro de energía cuando no estén en uso
Otra innovación evita que 5G agote la batería de su teléfono para que pueda aprovechar al máximo esa velocidad de datos. La característica, llamada » ancho de banda adaptativo «, permite que su teléfono cambie automáticamente a velocidades de Internet más rápidas y que consuman más batería cuando las necesite, y ahorre energía cuando solo realiza actividades con poca información, como consultar el correo electrónico.

-Densidad:
5G te permite conectar hasta un millón de objetos por km2, 100 veces más que 4G, sin afectar la velocidad de conexión. En particular, esta última característica es la que debería permitir el desarrollo del Internet de las Cosas. En el futuro, las redes ya no se utilizarán solo para dispositivos móviles (como teléfonos inteligentes o teléfonos celulares), sino también para la comunicación entre objetos, como la posibilidad de «diálogo» con numerosos electrodomésticos de uso común, o entre dispositivos y sensores de varios tipos (por ejemplo, la posibilidad de que un vehículo se comunique con la carretera). [11]

Los ingenieros esperan que 5G eventualmente conecte más que solo teléfonos . También podría vincular sensores integrados en todo, desde maquinaria agrícola hasta dispositivos médicos, formando el llamado «internet de las cosas«. Eso ha sido difícil con los retrasos de 4G

__.

-nuevas tecnologías
5G ha requerido una gran cantidad de nuevas tecnologías.

Muchos de los avances asociados con 5G involucraron la infraestructura de la red, como la transición de un sistema de torre celular a una red más densa de » celdas pequeñas «: que son transceptores de radio del tamaño de cajas de pizza que se pueden montar en farolas o edificios. Algunos también podrían instalarse en interiores para crear redes privadas para hogares u otros negocios. Dado que 5G es probablemente más rápido que el WiFi de su hogar, podría terminar siendo su única conexión a Internet.

Y a través de una función llamada «enlace lateral», los desarrolladores planean hacer que los dispositivos 5G se comuniquen directamente entre sí, sin necesariamente enrutar la señal a través de transceptores. Eso significa, por ejemplo, que los vehículos equipados con 5G podrían coordinarse de manera más eficiente, una característica importante para los automóviles autónomos.

Las señales 5G más rápidas viajan por mmWave, pero esas señales solo pueden viajar distancias cortas. Por lo tanto, llevar esas velocidades a las masas requerirá una infraestructura de células pequeñas, que aún tiene un largo camino por recorrer.

5G no está reemplazando a 4G, simplemente se está construyendo sobre él. Por lo tanto, los teléfonos compatibles con 4G seguirán funcionando durante un tiempo. Incluso los teléfonos 3G siguen funcionando, aunque es probable que eso cambie pronto : para el 17 % de los suscriptores de EE. UU. que actualmente usan 3G, deberían esperar que sus teléfonos dejen de funcionar en algún momento de 2022.

Actualmente, 5G solo está disponible en ciertas áreas , principalmente en EE. UU. y Asia. Pero para 2022 , un tercio de la población mundial debería tener acceso a ella, y para 2025, más de la mitad del planeta.

Si bien la mayoría del mundo tendrá acceso a 5G dentro de varios años, es posible que las áreas pobres y rurales se queden esperando : la infraestructura es muy costosa y muchas personas en los países en desarrollo todavía usan dispositivos 2G. Esto ha llevado a algunos a preocuparse de que 5G pueda ampliar la brecha de accesibilidad a Internet. Dado que el acceso inalámbrico es un gran impulsor del crecimiento económico , eso solo puede profundizar la división económica.[9]

La batalla por el mejor teléfono inteligente continuó en la era 5G, con la introducción de nuevos modelos como el BlackBerry Key 2.[6]

Red de comunicación móvil de Quinta Generación (5G)

Inicio año – 2015 La capa física y de enlace de datos define la tecnología inalámbrica 5G indicando que es una tecnología Open Wireless Architecture (OWA). Para realizar esto, la capa de red está subdividida en dos capas; capa de red superior para el terminal móvil y un menor nivel de red para la interfaz. Aquí todo el enrutamiento se basa en direcciones IP que serían diferentes en cada red IP en todo el mundo. En la tecnología 5G la pérdida de velocidad de bits se supera mediante el Protocolo de Transporte Abierta (OTP). El OTP es soportado por Transporte y capa de sesión. La capa de aplicación es para la calidad de la gestión de servicio a través de varios tipos de redes. 5G adelanta un verdadero mundo inalámbrico Wireless-World Wide Web (WWWW).

  • Velocidad – 1 a 10 Gbps.
  • Ancho de Banda – 1.000x ancho de banda por unidad de superficie.
  • Frecuencia – 3 a 300 GHz
  • Tecnologías de multiplexación / Access – CDMA y BDMA
  • Estándares – banda ancha IP LAN / WAN / PAN & WWWW
  • Características: rendimiento de tiempo real – de respuesta rápida, de baja fluctuación, latencia y retardo
  • Muy alta velocidad de banda ancha – velocidades de datos Gigabit, cobertura de alta calidad, multi espectro
  • Infraestructura virtualizada – Software de red definido, sistema de costes escalable y bajo.
  • Soporta Internet de las Cosas y M2M – 100 veces más dispositivos conectados, Cobertura en interiores y eficiencia de señalización
  • Reducción de alrededor del 90% en el consumo de energía a la red.
  • Su tecnología de radio facilitará versión diferente de las tecnologías de radio para compartir el mismo espectro de manera eficiente.
  • Servicios: – Algunas de las aplicaciones son importantes – personas y dispositivos conectados en cualquier lugar en cualquier momento. Su aplicación hará que el mundo real sea una zona Wi Fi. Dirección IP para móviles asignada de acuerdo con la red conectada y la posición geográfica. Señal de radio también a mayor altitud. Múltiples servicios paralelos, con los que se puede saber el tiempo meteorológico y en tu posición geográfica mientras hablas. La educación será más fácil. Un estudiante que se sienta en cualquier parte del mundo puede asistir a la clase. El diagnóstico remoto es una gran característica de 5G. Un Médico puede tratar al paciente situado en la parte remota del mundo. El seguimiento será más fácil, una organización gubernamental y otros investigadores pueden monitorear cualquier parte del mundo. Se hace posible reducir la tasa de criminalidad. La visualización del universo, galaxias y planetas serán posibles. Posible también detectar más rápidamente desastres naturales incluyendo tsunamis, terremotos, etc.

6G

• el 5G  maneja de transmisión de datos hasta 1.100 Mb/s,  el 6G sera 100 veces más rápido con velocidades de transferencia de datos de 1 TB/segundo.

• Para año 2030, tendría la capacidad de conectarse con coches automatizados, hologramas en tiempo real, los vehículos voladores, también drones, helicópteros o transporte individual, proyectos en desarrollo, que serían también beneficiados.

• Para 2030 se espera poder conectar 10 veces más dispositivos por kilómetro cuadrado de lo que permite el 5G. El 7G, que ya se intuye en el futuro, empezará a clarificar posibilidades desde 2024.

Sistemas celulares aerotransportados

Además de los sistemas de telefonía celular terrestre descritos anteriormente, también existen varios sistemas que permiten la realización de llamadas telefónicas a la PSTN por parte de los pasajeros de aviones comerciales. Estos teléfonos de a bordo, conocidos con el nombre genéricolos sistemas de correspondencia pública aeronáutica (APC), son de dos tipos: terrestres, en los que las llamadas telefónicas se realizan directamente desde una aeronave a una estación terrestre en ruta; y por satélite, en el que las llamadas telefónicas se retransmiten vía satélite a una estación terrestre. En los Estados Unidos el sistema terrestre norteamericano (NATS) fue introducido por GTE Corporation en 1984. En una década, el sistema se instaló en más de 1700 aeronaves, con estaciones terrestres en los Estados Unidos que brindan cobertura en la mayor parte de los Estados Unidos y el sur de Canadá. Un sistema de segunda generación, GTE Airfone GenStar, empleaba modulación digital. En Europa, el Instituto Europeo de Normas de Telecomunicaciones (ETSI) adoptó un sistema APC terrestre conocido comosistema telefónico de vuelo terrestre (TFTS) en 1992. Este sistema emplea métodos de modulación digital y opera en las bandas de 1670–1675 y 1800–1805 megahercios. Para cubrir la mayor parte de Europa, las estaciones terrestres deben espaciarse cada 50 a 700 km (30 a 435 millas).[8]

Banda C en 5G y los altímetros de los aviones.^

El rango de frecuencia de la banda C puede interferir con los altímetros de las aeronaves

Situación:

Directores ejecutivos de diez aerolíneas advirtieron en enero de 2022 que los aeropuertos no estaban equipados para manejar el servicio 5G en el rango de frecuencia de la banda C, que se puso en marcha el 19 de enero.
Las grandes compañías inalámbricas acordaron posponer el lanzamiento de 5G cerca de las pistas de los aeropuertos hasta que puedan llegar a un compromiso con la industria de las aerolíneas, la Administración Federal de Aviación (FAA) y otras partes interesadas.

Con cobertura en otras dos bandas de frecuencia, el servicio 5G ya está en uso a nivel nacional

El 78% de la flota comercial de EE. UU. tiene altímetros aprobados para trabajar en condiciones de baja visibilidad La banda C se utiliza en más de 40 países de todo el mundo, según la Asociación Inalámbrica, un grupo comercial de comunicaciones inalámbricas.

Verizon y AT&T han invertido mucho en licencias de la FCC para usar 5G en la banda C.:- ganaron la mayor parte de la subasta de 5G por 81.000 millones de dólares en el 2021, y acordaron crear zonas de amortiguamiento de dos millas alrededor de 50 aeropuertos en los EE. UU. para reducir los riesgos de interferencia durante seis meses.

Si quiere más y más de esta tecnología 5G, y está consumiendo espectro, entonces está creando un montón de estos problemas con los vecinos”, A nivel macroscópico, esta es una negociación gigantesca entre dos industrias importantes y tres organismos reguladores

 

Banda de Frecuencias, Rangos de Operación:

La banda C proporciona una combinación óptima de velocidades rápidas y amplia cobertura

Banda C:  4-8 GHz (definido por la IEEE)

Sensores Remotos por satélite: 4,2-4,4 GHz está atribuido al servicio de Exploración de la Tierra por satélite – (pasivo) a título de secundario, por el número 5.438 del Reglamento de Radiocomunicaciones (RR) de la ITU.

En enlaces satelitales: 3,7-4,2 GHz y 5,925 -6,425 GHz. para enlaces descendentes ascendentes respectivamente)

En subasta de la FCC en los EE.UU. 3,7-4,2 GHz
5G: de 3.7-3,8 GHz. El 5G opera en 3,7 GHz a 4,2 GHz y el plan inicial era 3,7 – 3,98 GHz, siendo reducida a 3.8GHz  como concesiones de las operadoras

Altímetros: 4,2 a 4,4 GHz.   (220 MHz separan las señales del altímetro del las usadas en 5G) , también para para los transpondedores asociados en tierra, según el en el número 5.438 de las RR ( Radio Regulations) RECOMENDACIÓN UIT-R RS.1624 y UIT-R M.2059-0 .Actualmente esta atribuida al SRNA (ARNS ) con carácter primario a nivel mundial.

 

Los equipos a bordo

Los ingenieros diseñaron altímetros de radar en 1938 determinan de la altura de un avión, en visibilidad es escasa. están ubicados en la parte inferior del avión y hacen rebotar ondas de radio en el suelo para detectar la distancia del avión en cualquier momento.

Posteriormente sistemas satelitales se convirtieron en los únicos otros usuarios de la banda C, aunque con señales débiles desde el espacio no interfirieron con las ondas de radio del altímetro.

Solución

Lo que ha cambiado es que la FCC ha autorizado una potente señal de banda C que se origina en tierra y apunta incluso hacia arriba. Estas señales pueden llegar al altímetro de una aeronave e impedir su uso. La señal no solo está mucho más cerca de los aviones en los aeropuertos, sino que también es mucho más poderosa.

Para dar solución se debe hacer todo lo posible para

(1)-suprimir la señal, con filtrado en el receptor:

Con frecuencias cercanas estas se propagan a frecuencias vecinas, y ningún receptor de radio puede filtrar una señal perfectamente para evitar este traspaso Los fabricantes de altímetros de radar deben proporcionar más filtrado de receptores de radio para que los altímetros puedan ignorar de manera efectiva las señales 5G de los transmisores de telecomunicaciones. Esto significa reemplazar o adaptar los instrumentos en la aeronave con filtros más ajustados, llevará tiempo, y habrá costos asociados con ello

Cambiar la tecnología en la aeronave es más un desafío operativo que tecnológico. Una actualización implicaría insertar un filtro en algún lugar entre la antena del avión y el resto de la radio que procesa la señal. El filtro debe suprimir o atenuar las señales 5G. Conceptualmente, sería como insertar un amplificador entre la antena y el receptor de TV para mejorar la señal.

(2)-reducir la potencia de la señal en el lado de transmisión y empujarla más lejos:

Las regulaciones de la FCC en los EE. UU. permiten que los sistemas celulares funcionen con mayor potencia, lo que genera una señal más fuerte.

Los niveles de potencia a los que estamos autorizados a operar en los EEUU son más bajos que los autorizados más recientemente en la Unión Europea.

(3)-inclinar las antenas hacia abajo:

Las antenas de los sistemas celulares en Francia están inclinadas hacia abajo, de modo que solo las señales débiles llegan a los aviones cercanos

Otra Posible Solución

(4)-impone restricciones en el despliegue

Si se impone restricciones en el despliegue, puede ayudar a controlar la cantidad de interferencia que observan estos altímetros de radar”, eso limita el rendimiento de 5G o aumenta el costo de la industria celular.

La zona de exclusión de 1,2 millas que las compañías inalámbricas propusieron anteriormente se basó en las distancias utilizadas alrededor de los aeropuertos franceses,

La razón principal para extenderlo a dos millas (3,2 km) es que existen algunas diferencias entre las reglas de la banda C de EE. UU. y las de Francia.Asi mismo para cuando la señal llegue a los altímetros de radar en los aviones, será demasiado débil para interferir

__

 Fuentes

[33][*]RE Fisher, Bell Laboratories, Inc., Whippany, NJ, USA «Una descripción del hardware de control y radio del sitio celular HCMTS del sistema Bell», 27.ª Conferencia de tecnología vehicular IEEE , 1977, págs. 166-167, doi: 10.1109/VTC.1977.1622437

[32][–].https://www.umtsworld.com/technology/wcdma.htm
[31][—].https://www.qualcomm.com/media/documents/files/wireless-networks-1x-advanced-four-fold-increase-in-voice-capacity.pdf

[30].https://www.3g4g.co.uk/Hspa/
[29].https://commsbrief.com/difference-between-lte-advanced-lte-advanced-pro-and-5g/

[28].https://www.gizchina.com/tag/telecommunication-industry
[27].https://www.gizchina.com/tag/motorola

[26].http://www.wirelesscommunication.nl/reference/chaptr01/telephon/is54.htm

[25].https://www.electronics-notes.com/articles/connectivity/3gpp/standards-releases.php

[24].https://www.cengn.ca/6-ways-5g-is-improving-healthcare-system/

[23].https://www.cengn.ca/electromagnetic-hypersensitivity-ehs-is-it-a-threat-to-5g/

[22].https://www.digitaltrends.com/mobile/5g-vs-4g/#:~:text=With%204G%20networks%2C%20you’re,to%201ms%20with%205G%20technology.&text=The%20average%20latency%20you%20can,will%20likely%20be%20around%2010ms.

[21].https://www.verizon.com/about/our-company/5g/difference-between-3g-4g-5g

[20].https://www.speedtest.net/insights/blog/5g-canada-q4-2020/

[19].https://www.cengn.ca/5g-in-canada-is-there-a-health-concern/

_

[18].https://mobilesyrup.com/2018/05/04/bell-fastest-4g-network-canada-tutela-report/#:~:text=According%20to%20Tutela’s%20report%2C%20national,download%20speed%20of%2015.68Mbps.

[17].https://www.cbc.ca/news/technology/the-leap-into-lte-the-next-generation-of-mobile-networks-1.994172

[16].https://www.digitaltrends.com/mobile/4g-vs-lte/

[15].https://www.itu.int/en/ITU-R/information/Pages/default.aspx

[14][6.1] http://www.itu.int/pub/R-REP-M.2134-2008/en

[13] https://www.universidadviu.com/int/actualidad/nuestros-expertos/evolucion-de-la-red-de-comunicacion-movil-del-1g-al-5g

[12]https://www.universidadviu.com/int/actualidad/nuestros-expertos/evolucion-de-la-red-de-comunicacion-movil-del-1g-al-5g

[11]https://okdiario.com/curiosidades/que-significa-1g-2g-3g-4g-5g-3223153

[10]https://www.amosjoel.com/history.php

[9]https://www.scientificamerican.com/video/what-is-5g-here-is-short-video-primer/

[8]https://www.britannica.com/biography/Martin-Cooper

[7]https://patents.google.com/patent/US3663762

[6]https://www.cengn.ca/information-centre/innovation/timeline-from-1g-to-5g-a-brief-history-on-cell-phones/

[5]https://www.igi-global.com/chapter/first-generation-mobile-communications-technology/76774

[4]http://www.cleardoubts.com/technology/what-is-1g-or-first-generation-of-wireless-telecommunication-technology/

[3]https://blog.xoxzo.com/en/2018/07/24/history-of-1g/

[2]https://telephoneworld.org/cellular-phone-history/analog-cellular-amps-1g/

[1]https://www.gizchina.com/2021/01/18/from-0g-to-5g-1946-2020-see-how-the-telecommunication-industry-has-progressed/

 Imagenes

SCR-300

.Un enorme transceptor de señal en el maletero de un coche

Leonid y su teléfono móvil portátil ЛК-1

Teléfono móvil IMTS (Motorola)

DynaTAC – primera generación

El artículo de Douglas en ese momento, titulado «Cobertura de área amplia de teléfono móvil»

Teléfono NMT de Ericsson

Primera estación base de China (Guangzhou)

DynaTAC 8000X

El primer usuario en ese momento, Dave Meilhan

Un diagrama de la banda celular de 850 MHz tal como se diseñó originalmente para el servicio AMPS en EE. UU. y Canadá

Nokia-3210-2G

Blackberry-5810-3G

iphone-2-3G

iphone-6-4G Samsung-Galaxy-S4-4G

UMTS

La E que suele estar junto a la señal del teléfono móvil significa EDGE

1821, 28 de enero. Maracaibo es «República Democrática»


Luego de la firma de los tratados de Armisticio y de Regularización de la Guerra en noviembre de 1820 , el primero es roto apenas dos meses después el 28 de enero de 1821, cuando  Maracaibo ( la Provincia), que en ese momento era parte importante del territorio bajo el poder de la Corona de España en la remanente de la Capitanía General de Venezuela y que era reclamado por la República de Colombia (Hoy conocida como Gran Colombia) , declaró la ciudad y su territorio constituidos en «República Democrática«, permitiendo la ocupación por el ejercito Colombiano, aunque fuese momentáneo, pues la intención fue declararse soberanos para poder adherirse a la naciente República de Colombia, lo que genero que fuese recuperada nuevamente por los realistas en septiembre de 1822, hasta 1823 cuando son derrotados en la Batalla naval del Lago, para así llegar a formar parte definitiva del Departamento de Venezuela.

Ver mas en :

https://angelmagallanes.wordpress.com/2021/11/27/27-de-noviembre-1820-ratificacion-del-tratado-de-armisticio-y-el-de-regularizacion-de-la-guerra/(abre en una nueva pestaña)

-Clasificación de los asteroides según su acercamiento a la tierra


Según la NASA, cualquier objeto espacial cuyos parámetros orbitales lo coloquen (en un caso hipotético de órbitas coplanares) a una distancia en apohelio de casi 6 (2.5MMkm) y de perihelio de entre 6 (2.5MMkm) y 117 (45MMkm) veces la distancia de la tierra  a la luna  se considera como ‘cercano a la Tierra’, y cualquiera que se aproxime en un radio de 7,5 millones de km a la tierra, entra de forma automática en la lista de ‘potencialmente peligrosos’. A estos se les hace seguimiento exhaustivo de cambios en la trayectoria en caso de que cualquier perturbación pudiera colocarlos en ruta de colisión contra la tierra.

Una unidad astronómica (AU) es igual a 149.597.870.700 metros, es decir, casi 150 millones de kilómetros (150 MMkm).

La Luna está a una distancia promedio de 384.400 km ( 0.3844 MM km, o a 0.00257 AU). Eso es como 30 veces el diámetro de la tierra.

El perihelio (q) constituye el momento de la órbita donde el objeto está más cerca del Sol (el cual esta situado uno de los focos), el afelio (Q) es el momento de la órbita donde el objeto está más alejado del Sol.

El  MOID (Minimum Orbit Intersection Distance) Distancia Mínima de Intersección del Plano de la órbita del Objeto con el Plano de la Órbita de la Tierra.

La NASA clasifica la peligrosidad de los Objetos:  Asteroides y Cometas si están dentro algunos rangos:

(1) Cercanos a la tierra   NEO : Pueden ser Cometas (NEC) o Asteroides (NEA). Para estos últimos, con perihelio menor a 1.3 UA (194MM km), entre 1.3UA y 1.07 UA , y los que tienen el aophelio menores o mayores a 0.98 UA , aplicando adicionalmente consideraciones del semi eje mayor.
El NEA más grande conocido hasta el momento es 1036 Ganymed.
Hay 4 tipos, y adicional el hecho que su órbita cruce la órbita terrestre no significa que haya riesgo de colisión, pues pueden tener una inclinación y eccentricidad suficientemente para que ello no ocurra.

Los Tipos de NEA:

-Con Órbitas (semi eje mayor) más pequeñas que la órbita de la tierra:

(1.a) Atiras: Su órbita es mucho menor que la de la tierra (no cruzan la órbita terrestre) (afelios ‘Q’ menores a 1UA, estando a menos de  0.983UA)
(1.b) Atens : Si cruzan la órbita terrestre y su Semieje mayor de la órbita es  menor que la de la tierra (afelios ‘Q’ mayores  a 1UA, estando a más de  0.983UA)

-Con Orbitas (semi eje mayor) mas grandes que la órbita de la tierra:
(1.c) Apollos:  Si cruzan la órbita terrestre y su Semieje mayor de la orbita es mas grande que la de la tierra. (perihelios ‘q’ menores  a 1.017UA )
(1.d) Amors : Su órbita es más grande que la de la tierra (no cruzan la órbita terrestre) (perihelios ‘q’ mayores  a 1UA, estando entre  1.017UA y 1.3UA).
#*En un caso hipotético de órbitas coplanares, el perihelio se alejaria (en los amor)  de  la tierra hasta la distancias de entre 6 y 117 veces las distancia a la luna, o se acercaria (en los apollo)  a hasta casi 6 veces.
#*En un caso hipotético de órbitas coplanares, el apohelio llegaria (en los Atira) o se alejaria (en los Aten) aproximadamente a casi 6 veces la misma distancia que separa a la tierra de la luna.
(2) Potencialmente peligrosos PHA (Asteroides):  son NEA donde la distancia mínima de intersección a la órbita [Objetos con distancia mínima de intersección a la órbita (MOID)] a 0.05 UA o 7.5MM km [19.51 veces la distancia promedio de la tierra a la luna], también si la magnitud de brillo absoluta es de 22, (lo que correspondería aproximadamente a un  tamaño mayor a 140m).
El Asteroide Potencialmente Peligroso más grande conocido hasta ahora es 4179 Toutatis.

Fuente: Mission planning for the mitigation of hazardous Near Earth Objects [electronic resource]. Brent William Barbee. NASA. https://www.researchgate.net/figure/Minimum-Orbital-Intersection-Distance_fig7_36174303

tierra -sol Tierra – Luna HEA, distancia  menor a :
UA 1 0.0026 0.05
m 1.49598E+11 384400000 7479893535
km 149597870.7 384400 7479893.54
MMkm 149.5978707 0.3844 7.48
REF:distancia Tierra-Luna 389.1724004 1 19.458897

IMAGEN (editada) Creditos: Mission planning for the mitigation of hazardous Near Earth Objects [electronic resource]. Brent William Barbee. NASA. https://www.researchgate.net/figure/Minimum-Orbital-Intersection-Distance_fig7_36174303

ver mas en este Blog en :

La Tierra y el Espacio

Espacio: El Tamaño del Sistema Solar.

Franklin Chang Díaz. El astronauta que creció en Venezuela


El astronauta que creció en Venezuela; por Pedro Plaza Salvati

Por Pedro Plaza Salvati | 7 de octubre, 2017

Fotografía de la NASA

¿Quién hubiera imaginado que el astronauta con más misiones al espacio vivió parte de su infancia en Venezuela? ¿Quién hubiera podido suponer que el cielo estrellado de Altragracia de Orituco, a la edad de cuatro años, sería el escenario para cimentar su atracción precoz hacia el espacio?; que Venezuela constituiría una de las fuerzas que estimularon su imaginación y formaron su identidad. A escondidas de sus padres en las noches guariqueñas junto a Maruja, su hermana, se trepaba al techo de la casa cargado de toronjas con azúcar para mirar el firmamento: “nunca había visto un cielo tan bello”.  Desde San Juan de los Morros partía de la mano de su padre en innumerables viajes de cacería y en la noches “el cielo se cubría de estrellas infinitamente más numerosas que en cualquier otro lugar”.

Franklin Chang Díaz, el astronauta costarricense, relata a manera de autobiografía su vínculo con Venezuela en su libro Los primeros años: mis primeras aventuras en el planeta Tierra (Editorial de Costa Rica, 2017), presentado el martes 26 de septiembre en el Foyer del Teatro Nacional. Al leer estas páginas escritas de manera sencilla nos enteramos que su infancia transcurrió entre dos países: “Casi inmediatamente después de llegar al mundo, comencé una vida de transición y vaivén entre dos universos: uno en Costa Rica, en el hogar de mis abuelos maternos, y otro en Venezuela con mis padres y hermanas”.

Los años venezolanos de la familia Chang-Díaz transcurrieron en lugares tan disímiles como Macuto, Altagracia de Orituco, Caracas (Bello Monte), San Juan de Los Morros y en la Isla de Toas en el Golfo de Maracaibo. Ramón Ángel Chang Morales, padre del soñador del espacio, logró que lo contrataran en distintos proyectos y desempeñó cargos tales como operador de maquinaria en la construcción de un embalse y una urbanización en Tanaguarena, jefe de  maquinaria pesada en el proyecto de la carretera Altagracia-Guatopo-Santa Teresa del Tuy, gerente de talleres en el Ministerio de Obras públicas, sub-director de operaciones de una de las plantas de la Compañía Venezolana de Cementos en el Golfo de Maracaibo y,director de maquinaria pesada en la construcción de la represa de Guanapito.

Fue así como desde 1945 hasta 1962 el padre de Franklin Chang supo valorar a Venezuela como una fuente de abundancia donde podía generar el ingreso que le proporcionaría a su familia una vida holgada en su Costa Rica natal. Aquella era la época del “sueño venezolano”, el país progresaba y marcaba un ritmo pujante en Latinoamérica (paradójicamente de la mano de una dictadura). De acuerdo al World Economic Forum en 1950, el mismo año de nacimiento de Franklin Chang Díaz, Venezuela era la cuarta economía más rica del mundo. Y como lo relata el autor: “Ese país sudamericano se había convertido en el destino de muchos costarricenses de aquella época. Su nueva riqueza petrolera había iniciado un período de alta expansión en infraestructura que retaba la capacidad de oferta nacional en personal calificado”.

Franklin, llamado así por la admiración que su padre tenía por Franklin Delano Roosevelt, forjador del llamado New Deal en los Estados Unidos y que sentó un precedente importante para la instauración de las Garantías Sociales en Costa Rica en los años cuarenta, llegó a Venezuela, por primera vez, a la edad de dos años. En la presentación del libro, Franklin Chang relata que en la época no había vuelos directos a Caracas y que era necesario hacer escala en Panamá o Colombia:“Cuando viajaba a Venezuela lo hacía en aviones DC-3. Pedía ver la cabina del piloto y me quedaba maravillado.” Estudiaría y viviría varios años en el país y, luego de regresar a su Costa Rica natal, viajaba en las navidades para visitar a sus padres, como una vez lo haría a la Isla de Toas, sobre la que comenta: “En la lejanía, a través del inmenso golfo, se veían las luces de Maracaibo y, más lejos aún, los destellos del Relámpago del Catatumbo, las descargas eléctricas que por condiciones idóneas de las montañas del sur se repiten con la regularidad de un faro marino”.

El inicio de los años sesenta marcó el regreso definitivo de la familia Chang a Costa Rica y el fin de esos años dorados. Un hecho, en apariencia contradictorio, que signó este reacomodo fue la transición de la dictadura a la democracia, período que, como se sabe, no estuvo exento de inestabilidad política producto de los alzamientos subversivos inspirados en la revolución cubana. En una cita que podría ser leída como de una actualidad revivida, el autor afirma: “La situación política de Venezuela se había vuelto cada vez más difícil. Durante nuestros últimos años en Altagracia habíamos podido presenciar demostraciones estudiantiles, balaceras y tiroteos entre agitadores y policías”.

***

Franklin Chang dejaría su Costa Rica natal a los diecisiete años, sin saber inglés y con el sueño si se quiere temerario de llegar a ser astronauta. Gracias a una beca se gradúa de Ingeniero Mecánico de la Universidad de Connecticut y obtiene un doctorado en el MIT con especialización en física aplicada del plasma. A la fecha es una de las doce personas de origen hispano en lograr el sueño de convertirse en astronauta. En el Teatro Nacional comentó: “Convertirme en astronauta fue una cadena de acontecimientos, no una línea recta. El fracaso es la única forma de lograr lo que uno se propone y, entre los fracasos, se logran los pequeños triunfos. Nada hasta el momento en que me fui a Estados Unidos me había demostrado que no iba a poder lograrlo”. Un sueño que, como lo dice en el libro y lo confirma en persona, tuvo que ver con Venezuela: “En Altagracia de Orituco se esbozó esa llamita. Viendo las estrellas junto a mi hermana desde el techo de la casa. Fue el momento cuando verdaderamente empecé a soñar”, dijo ante un público atento de escuchar su historia personal.

Al terminar su doctorado, la NASA abre el programa de reclutamiento tras una década de estar cerrado y uno de los requisitos era que los postulantes debían tener la nacionalidad estadounidense: Careers with NASA are generally limited to United States Citizens. Franklin Chang obtiene la ciudadanía en 1977 y tres años más tarde es elegido candidato como parte de un reducido grupo de diecinueve personas entre unos cuatro mil postulantes. Se convierte en astronauta de manera oficial en agosto de 1981. Fue el único hispano escogido en ese momento y el primer latinoamericano en llegar a ser astronauta.

Franklin Chang comparte el récord de siete misiones a bordo de un transbordador espacial. El costarricense,elegido al Salón de la Fama de la NASA, ostenta un cúmulo de 1.601 horas en el espacio con 19 horas y 31 minutos de caminatas espaciales. Su primera misión fue en el año de 1986 en el Transbordador Espacial Columbia y su última misión en el 2002 a bordo del Transbordador Espacial Endeavour.

***

En su segunda misión que tuvo una duración de 119 horas y 41 minutos con 79 órbitas de la Tierra en el Transbordador Espacial Atlantis, se produce una conversación tierra-espacio entre el Premio Nobel de la Paz, Oscar Arias,y Franklin Chang, transmitida en cadena nacional. El video de la conversación se encuentra en YouTube y a Chang se le puede ver sonreído y emocionado con sus compañeros de vuelo. La sobriedad del despacho presidencial contrasta con la visión de los astronautas desde el espacio. Parte del intercambio de palabras transcurre así:
===================================

Oscar Arias: Muy interesante todo… ¿Qué es lo que esperan realmente lograr en las investigaciones que harán con respecto al Planeta Júpiter?

Franklin Chang: El estudio de los planetas es fundamental para nosotros para entender nuestro propio planeta… En realidad Júpiter no es solamente un planeta sino actualmente un sistema solar en miniatura. Tiene una gran cantidad de satélites que giran a su alrededor y el estudio de esos cuerpos nos va a enseñar mucho no solamente sobre la tierra y Júpiter mismo sino también sobre el sistema solar en sí.

Oscar Arias: Fundamentalmente me imagino que la investigación es en torno a la atmósfera y los dieciséis satélites de Júpiter y ¿qué otras cosas?

Franklin Chang: Se supone que el planeta Júpiter contiene varios materiales de carácter orgánico sometidos a gran cantidad de radiación donde tal vez ciertos aminoácidos, ciertos tipos de cadenas orgánicas puedan unirse y fundamentalmente iniciar los primeros pasos para el desarrollo de lo que sería tal vez “vida”. Claro, no esperamos encontrar ningún tipo de vida a nivel ni siquiera microscópico en el planeta Júpiter, pero siempre estamos buscando la respuesta a la pregunta de cómo se originó la vida en el Universo.

Oscar Arias: Sumamente complejo. En la mente de un político cuesta mucho entender todo lo que usted me está contando pero, en fin, es una experiencia maravillosa para nosotros poderte saludar y realmente creo que te convertís en un ejemplo para la juventud costarricense y del mundo latinoamericano en general. Lo que has logrado es un paradigma para nuestra juventud que necesariamente tiene que ver en vos un símbolo de lo que puede llegar ser cada uno de nuestros jóvenes en la pequeña Costa Rica.
====================

En los comentarios escritos sobre el video se lee el siguiente de hace pocas semanas y cuyo autor se identifica como Audio Leal W.:

“Desde niño siempre le admiré. Casualmente en mi país dos canales (Venevisión y Televen) transmitieron en directo el lanzamiento de esta misión, ya que por las diferencia de horas, su despegue coincidió en horas de la emisión meridiana de noticias y por ello pude verlo en vivo. Un orgullo para Latinoamérica el Dr. Chang Díaz. Saludos desde Venezuela.”
====================

***

Franklin Chang es un hombre inquieto y, como tal, no se ha quedado tranquilo viviendo de sus glorias pasadas. En el año 2005 se separa de la NASA para formar su propia empresa Ad Astra Rocket Company, cuyas palabras en latín significan “hacia las estrellas”. Esta compañía tiene sede en Houston y en Guanacaste. Chang trabaja en un motor que utiliza plasma, la cuarta materia de la que están hechos el sol y las estrellas y motivo de su especialización en el doctorado. Ello como parte de la búsqueda para el control de la fusión termonuclear: el proceso donde se origina el sol y las estrellas como una fuente de poder en la Tierra. Las pruebas se realizan, como dijo en el teatro, a unos cinco millones de grados centígrados. Chang sueña con llevar a los humanos al planeta Marte a una velocidad diez veces superior a la que actualmente se utiliza para viajar al espacio, sin tanto desgaste corporal y cree, como ha dicho en una entrevista, en la democratización del espacio, es decir, que de llegar a ser posible, él aspira a que sea un sueño realizable para muchas personas. Un espacio exclusivo para los pudientes no le interesa. Este pensamiento de Chang seguro que no agradaría a Richard Branson, el billonario creador de Virgin Galatic que habla de colonizar a Marte y dividirlo en “Marte Este” y “Marte Oeste”,compartirlo, como los conquistadores europeos de América en su época, con el también billonario Elon Musk, fundador de Space X.

Como parte de sus emprendimientos, en agosto de este año un autobús transportado por un tráiler recorrió las carreteras del país.En la cuenta de Twitter de @FranklinChangD se pueden ver varios de los videos. Se trata del primer autobús eléctrico de hidrógeno en Centro América y que hizo su llegada estelar por el Puerto de Limón. Ad Astra Rocket desarrolló este prototipo y convirtió a Costa Rica en el segundo país en Latinoamérica en contar con la tecnología del uso del hidrógeno como fuente de combustible. En la presentación del libro Chang confiesa que desea ver a Costa Rica como el primer país en utilizar solo electricidad e hidrógeno como fuente de combustible, que sea una nación “libre de petróleo”. Y agrega que así como Costa Rica se convirtió en el primer país en abolir el ejército (1948), desearía verlo como el primero el lograr este propósito referido. El nombre del vehículo, que ya se empieza a conocer como “el autobús de Franklin Chang” lleva el nombre de “Nyuti”, que en leguaje indígena chorotega de Guanacaste significa “Estrella”. La atracción siempre por las estrellas; esas estrellas que tanto cautivaron a Chang en Venezuela como en ningún lugar.

***

El Foyer del Teatro Nacional es el escenario en el que se lleva a cabo la tertulia con el astronauta. La arquitectura y el decorado de otras épocas contrastan con los temas del espacio. Está acompañado de su madre, María Eugenia Díaz Romero, sentada en primera fila,y que aparece con frecuencia en la biografía. Franklin Chang, con humor, le hace consultas delante del público:“¿Cierto madre?”, al referirse sobre todo a sus travesuras de pequeño. Franklin Chang se muestra sonriente, preserva un aire y actitud juvenil. Se percibe como una persona accesible y humilde.

Tuve la oportunidad de hacerle la siguiente pregunta:

P: Don Franklin, en el libro usted indica que su interés no reside en conocer quién creó el universo sino en entender su funcionamiento. ¿Cómo puede un astronauta estar en el espacio, regresar a Tierra, y llevar una vida normal? Uno no puede imaginarse estar en el espacio, es algo demasiado vasto para asimilarlo. Yo supongo que el regresar debe causar un impacto de consideración: ¿tuvo usted alguna crisis de tipo existencial sobre el mundo, Dios, el Universo? ¿Cómo hizo para adaptarse?

R: Nadie que va al espacio puede ver el mundo de la misma manera luego de regresar. Cuando uno está en el espacio se tiene una sensación de poder, si se quiere, muy grande, porque el planeta está allí mismo, uno lo puede ver completo, entonces eso lo pone a uno a pensar y verlo de una manera distinta. También hay que tener en cuenta el hecho de que uno está en una nave y que a pocos metros, traspasando las paredes de solo centímetros, está el vacío. Eso proporciona otra perspectiva. Entonces, en efecto, mi interés es entender cómo funciona el Universo. Mi mente trabaja como la de un científico. Las preguntas sobre Dios y quién creó el Universo prefiero dejárselas a las personas que más saben sobre eso, a los expertos. Es cierto, uno tiene que ponerse límites porque si no se puede caer, claro está, en alguna crisis de tipo existencial.

Uno de los compañeros de colegio de Franklin Chang, de profesión psicólogo, también se encuentra en el evento y le pregunta cómo logró combinar su adaptación a la vida simultánea en dos países tan distintos desde todo punto de vista como Costa Rica y Estados Unidos. A lo que Chang respondió: “cuando uno está en el espacio se empieza a ver las distancias muy cercanas. Antes uno pensaba que Estados Unidos era algo lejano pero, desde el espacio, uno se da cuenta de que la distancia entre Estados Unidos y Costa Rica es muy pequeña. En avión desde Liberia (Guanacaste) me toma tres horas llegar a Houston y, en realidad, llegar a San José dura más tiempo por las presas (colas).

***

En una nota final del libro, el autor comenta que su aspiración es que la obra sea una trilogía. De hecho, la narrativa de Los primeros años concluye cuando, luego de conseguir un trabajo en el Banco Nacional de Costa Rica para ayudarse económicamente, encontró una ventana de escape para trasladarse a Hartford, Connecticut e iniciar el largo camino para convertirse en astronauta. Para ello contaba con unos familiares que lo recibirían, unos pocos dólares en la billetera y un pasaje de ida: “Mi papá me quemó el puente de regreso al darme ese pasaje solo de ida”, afirma ante la audiencia. Al terminar las páginas, Chang, a los diecisiete años, se dispone a realizar su sueño en territorio estadounidense, así como su padre pudo realizar el suyo, a su manera, en suelo venezolano.

A través de distintos pasajes del libro se trasmite el cariño de Chang con Venezuela: “Era una niñez de gran libertad. Tanto en Caracas como en San Juan de los Morros y en otros lugares donde vivimos”. Para su padre fue una“época de oro y juventud que jamás sería igualada en los años venideros”. Al mismo tiempo, habla reiteradamente de la inestabilidad política, huelgas laborales, interrupciones de colegios y escuelas, disturbios violentos en las calles, que incentivaron el hecho de que el padre decidiera regresar definitivamente a Costa Rica. Y cita una muchedumbre que una vez pasó por su casa y gritaba:

“Dame La f! ¡Dame la I! ¡Dame la D!¡Dame la E!¡Dame la L! ¡¿ Qué dice?! ¡FIDEL! Esa letanía de cánticos iba y venía y a veces percutían los disparos y la multitud corría a refugiarse a las casas. Esa fue mi última experiencia de niño en ese bello país”

Comentarios (10)

Jean Casanova
7 de octubre, 2017

Chris Hadfield, astronauta Canadiense, también creció en Venezuela. En su twitter público una foto del lago de Maracaibo que tomó desde la Estación Espacial.

juanita pulgarito
7 de octubre, 2017

ojala muchos jovenes de nuestro pais se les diera esa gran oportunidad, lamentablemente muchos de ellos han muerto por una causa u otra que ya conocemos sin embargo estas pequeñas generaciones tal ves tenganuna oportunidad para saliradelante

juan jose figueroa
7 de octubre, 2017

maravilloso el articulo adde consigo la boagrafia en español

César
7 de octubre, 2017

Impresionante como en diferentes noticias se recogen Aspectos positivos del gobierno de Pérez Jiménez y por supuestos también Aspectos negativos del gobierno de Betancourt. Según lo que se recoje en esta nota, esos años de Chang en Venezuela fueron de maravilla con la dictadura, e inmediatamente llegó la democracia Junto con ella la demagogia, el comunismo y el exilio.

Edgar Arocha
8 de octubre, 2017

Fui unos de sus compañeros de juego durante su infancia en Altagracia,su obsesión por las estrellas era manifiesta desde entonces,en las noches solíamos trepar una mata de mamón en un parque (Sucre) frente a su casa para ver el cielo.La noche de su cumpleaños (12), después de cantarla torta,su padre le regaló una larga caja que llevó corriendo al parque y resultó ser un telescopio de trípode,desde ese día se convirtió en nuestro profesor de astronomía,se conocía todas las constelaciones,los planetas,los mares de la luna…es un digno ejemplo de que los sueños a través de la perseverancia pueden lograrse

Karelis Gomez
8 de octubre, 2017

Que historia tan fascinante! Cuando vi Guárico al principio era necesario leerlo todo! El poder de los sueños! Que grandeza! Ciertamente coincido que el cielo de Guarico es el mas bello de Venezuela, Espino siempre me regalaba una estrella fugas en mis vacaciones cuando lo contemplaba con admiracion! Lo mas importante de este artículo…no importa donde vengas lo que te mueve son tus sueños y metas! Dios bendiga a este Costarisence!

Chacao Bizarro
8 de octubre, 2017

He muchos años, durante un viaje a Cumana, escuche la versión de que la familia de uno de los tripulantes del Apolo 11 vivió en una localidad costera del estado Sucre. No recuerdo si era Mariguitar o San Antonio del Golfo. El caso es que el padre del tripulante del Apolo 11 tenía algo que ver con la operación o instalación de una factoría de conserva de pescado o algo por el estilo. Creo recordar que la versión señalaba como el niño que vivió varios años en la localidad costera al piloto del módulo lunar Edwin Aldrin Jr.

Después de leer el artículo, llame a un amigo para preguntarle por el nombre de la persona que suministro la versión y él lo identifico como un conocido residente de Cumana llamado Cesar Yegres

Pedro Plaza Salvati
8 de octubre, 2017

Queridos lectores,

Mil gracias por su lectura del artículo y por los valiosos comentarios.

Me he quedado asombrado con la nota de Jean Casanova al enterarme que Chris Hadfield vivió en Maracaibo. He visto muchas veces su video cantando Space Oddity de David Bowie e inclusive (disculpen la referencia) lo menciono en la novela “El hombre azul”. Es una coincidencia asombrosa que no solo Franklin Chang haya vivido en Venezuela sino también Chris Hadfield. Busqué las fotos de Maracaibo desde el espacio y son impresionantes.

Por otro lado, qué fortuna que este escrito haya sido leído por Edgar Arocha, un amigo de la infancia de Franklin Chang y que, desde su punto de vista, confirma lo narrado por el propio astronauta en su biografía: esa afición obsesiva por las estrellas y los juegos espaciales desde pequeño. Qué dicha, como dicen los ticos, que haya leído este artículo.

Muchas gracias igualmente a Karelis, César, Juan José y Juanita

Abrazos,

Pedro Plaza Salvati

Carlos José Cova

8 de octubre, 2017

Yo asistí a una conferencia que dictó acerca de nuevos sistemas de de propulsión y sus trabajos con plasma como combustible espacial, cuando el presidente Jaime Lusinchi lo condecoró con la orden Libertador, es una muy sencilla y muy dado a compartir sus conocimientos con las personas.

No mires arriba. (Don’t Look Up)


Se estrenó el 5 de diciembre de 2021 en el cine y llegó el 24 de ese mismo mes al mercado digital «streaming».

Al 5 de enero de 2022 se posiciona como la 3ra mas vista de Netflix

Alerta roja. 364,02 millones
Bird Box: a ciegas. 282,02 millones
No mires arriba. 263,32 millones

En ‘No mires arriba’, el último gran éxito de Netflix,

La película que ha sido el “hit” del inicio del año, “No mires arriba” (Don’t Look Up), es una sátira brillante que pinta con crudeza la “alienación” que padecemos la mayoría de los mortales frente a los mecanismos de “comunicación de masas”. Pero también desnuda la mediocridad y el cortoplacismo de una dirigencia incapaz de priorizar lo importante frente a la presión cotidiana de hechos frívolos o secundarios.
La comedia de Adam McKay (cuidado con los ‘spoilers’ a partir de aquí) utiliza algo tan gráfico como que se descubre un cometa que terminara empotrándose contra la Tierra y la humanidad va a ser aniquilada, la mayor parte de las especies se extinguirán y la catástrofe tendrá dimensiones inimaginables, (esto como alegoría del peligro que realmente se nos viene encima, el cambio climático), y de cómo decidimos ignorar las advertencias por muy aterradoras que sean provenientes de los científicos que se desesperan por comunicar la amenaza al mundo. Esto pues los científicos se encuentran con políticos ineptos más preocupados por sus resultados electorales y los medios de comunicación.

Con un elenco de entre otros:
DiCaprio y Lawrence quienes son los defensores de la ciencia,
Streep es la presidenta conservadora de EE.UU.,
Blanchett es una conductora de televisión que pinta todo de maravilla, y
Grande da vida a una cantante de pop, cuya vida personal parece ser más importante que el hecho de que el planeta se destruirá muy pronto.
(Cualquier parecido con la realidad es más que coincidencia.)

-La película narra cómo una estudiante avanzada de Astronomía de la universidad de Michigan Kate Dibiasky (Jennifer Lawrence) descubre un cometa que nombra con su apellido, Dibiansky, mientras su tutor académico Randall Mindy (Leonardo DiCaprio) descubre que el objeto espacial proveniente de los confines del Sistema Solar que se dirige hacia la Tierra y colisionará con el planeta y causará muerte y destrucción de todo lo existente.  La roca, un ‘destructor de planetas’ de unos 9 km de longitud -de un tamaño similar a la que acabó con los dinosaurios hace unos 66.000 millones de años- impactará en seis meses.

-Cuando esta pareja de astrónomos alertan de esta emergencia a la NASA, reciben la asistencia del Dr. Oglethorpe (Rob Morgan) y son enviados a contar la noticia a la mismísima presidenta de EE.UU., Jane Orlean (Meryl Streep). Acuden a Washington, pero ni a ella ni al resto de la Casa Blanca parece importarle el futuro del mundo. «Estoy tan aburrido», resopla el jefe de personal Jason (Jonah Hill) en la Casa Blanca cuando el doctor Mindy intenta explicarle por qué está seguro de lo que va a suceder. La presidenta muy parecida a Donald Trump minimiza el pronóstico ocupada en otros asuntos convenientes a su carrera política o sus amigos empresarios, en particular, uno parecido a Elon Musk. Los medios, el algoritmo, la derecha, el anticientificismo y todo caen bajo la brocha de sátira con la que pinta su película el director Adam MacKay.

-Por esa razón, Kate y Randall deciden también acudir a los medios de comunicación y lograr aparecer The Daily Rip, un vibrante programa matutino conducido por los presentadores Brie (Cate Blanchett) y Jack (Tyler Perry), frívolos -«¿Existen los extraterrestres? ¿Puede esa roca caer sobre la casa de mi exmujer?», preguntan. La parodia llega al extremo en un programa de televisión matutino en el que los presentadores,  se carcajean del asunto a vida o muerte y tratan a Dibiasky, ya desesperada por hacerse oír, como una chiflada antipática.

-Sin embargo, para ese momento, otra noticia banal ha opacado lo que ellos tienen que decir y nuevamente nadie toma en serio las advertencias de que la vida humana podría extinguirse dentro de poco tiempo, un comisario candidato a la Suprema Corte, el romance de dos cantantes o un pedo de Sting desplazan la atención pública y, en el caso de la Presidenta de los EEUU, un negocio multimillonario propuesto por un mega empresario amigo, tecnócratas multimillonarios cuyo único objetivo es hacerse aún más multimillonarios , y por no hablar del importante porcentaje de negacionistas, conspiracionistas, bulos y memes absurdos. Parecen ser más importantes que una operación posible para desviar el cometa y evitar el holocausto final de la humanidad.

*El intencional error de edición , a una hora con 28 minutos y 10 segundos del metraje, aparece rápidamente una toma del equipo de producción en medio del rodaje de la cinta. Se atribuye por el director para mostrar el ambiente de trabajo de filmacion durante la pandemia.

‘No mires arriba’: ¿Es posible evitar el fin del mundo en seis meses? –

3 enero, 2022

No en cien años

Con el asesoramiento de Amy Mainzer, profesora de ciencia planetaria en la Universidad de Arizona, la cinta también pone de actualidad el asunto de la defensa planetaria, con las licencias (unas cuantas) propias de Hollywood. Para empezar, «sería extrañísimo, prácticamente imposible, que descubramos un objeto de ese tamaño con tan poco tiempo de reacción. Un cuerpo así se habría visto mucho antes», afirma José María Madiedo, vinculado al Instituto de Astrofísica de Andalucía (IAA-CSIC).

La NASA tiene una Oficina de Coordinación de Defensa Planetaria (PDCO), encargada de buscar y caracterizar rocas «potencialmente peligrosas», aquellas cuyas órbitas llegarán a menos de 8 millones de km de la Tierra y con un tamaño lo suficientemente grande (de 30 a 50 metros) como para causar daños significativos. La organización, que por cierto es mencionada en la película, emite advertencias sobre los efectos de impactos potenciales y estudia estrategias y tecnologías para mitigarlos.

Como explican desde la agencia espacial estadounidense, más del 95% de los asteroides cercanos a la Tierra de unos 50 metros o más grandes han sido descubiertos, rastreados y catalogados. No hay posibilidad de que ninguno de ellos impacte contra la Tierra durante el próximo siglo. Igualmente, es extremadamente improbable que lo haga alguno de los objetos de este tamaño que quedan por descubrir. Pero los más pequeños tampoco son una broma. Es más fácil que pasen inadvertidos.
En 2013, un asteroide explotó sobre la localidad rusa de Chelyabinsk con una potencia de 500 kilotones, treinta veces superior a la bomba nuclear de Hiroshima. Causó heridas leves a casi 1.500 personas y daños en edificios y construcciones. Apenas medía unos 17 metros de longitud y 10.000 toneladas de masa. El impacto fue el de mayor intensidad desde el evento Tunguska, que se produjo también en Siberia en 1908 y arrasó 2.000 km cuadrados de tundra. No dejó cráter de impacto y los investigadores creen que se trató del paso rasante de un asteroide, sin llegar a impactar, o de un cometa, formado por material mucho más volátil.

Bombas nucleares

En un ejercicio teórico, dando por hecho que tuviéramos la peor de las suertes y que un hipotético cometa proveniente de la nube de Oort o de algún otro lugar más allá de Plutón decidiera ponernos en su punto de mira en un plazo de tiempo tan corto como seis meses, ¿podríamos hacer algo para salvarnos? «Con la tecnología actual, prácticamente nada. Es muy poco tiempo para poder reaccionar, diseñar una estrategia, llegar hasta el objeto y ponerla en práctica», reconoce Madiedo. «Aparte de eso, hoy en día no hay ningún protocolo a nivel internacional establecido ante una amenaza semejante», continúa.

Tampoco parece que la primera solución por la que optan en ‘No mires arriba’, hacer estallar un conjunto de bombas nucleares contra el cometa para romperlo en pedazos en el espacio, sea la más conveniente. «Esa estrategia, que es la que también sale en película ‘Armageddon’, no funciona. Es la menos eficaz porque no se sabe cómo se va a romper la roca ni por dónde. Algunos estudios incluso indican que los fragmentos podrían volver a agruparse por la propia gravedad del objeto», explica el astrofísico. Es decir, que podríamos seguir siendo golpeados por un gigante o por una miriada de rocas descontroladas.

Mejor un empujón

La NASA estudia una estrategia diferente con la que espera obtener mejores resultados. A finales de noviembre lanzó la misión DART, cuyo objetivo es impactar contra Dimorphos, la luna del asteroide Didymos, con la intención no de destruirla, sino de darle un ‘empujón’ que la desplace y desvíe su trayectoria. La nave llegará a su destino en otoño de 2022 tras un viaje de 11 millones de kilómetros. Dimorphos no es una amenaza. Se trata de una prueba para saber si la técnica funciona en caso de que alguna vez la necesitemos. «Pero un empujón es bastante menos espectacular para Hollywood que las explosiones nucleares», bromea Madiedo. Y hace falta tiempo. En una situación crítica, a la desesperada, con un cometa echándose encima, «probablemente no se descartaría una explosión nuclear».

El asteroide potencialmente peligroso de mayor tamaño identificado hasta el momento es el 1999 JM8, de 7 kilómetros de diámetro. «Por su tamaño, podría provocar un evento similar al que causó la extinción de los dinosaurios en caso de que colisionara con la Tierra», apunta Madiedo. No obstante, no hay ningún peligro de que eso suceda en, al menos, cien años. El próximo encuentro cercano entre nuestro planeta y este objeto ocurrirá en 2075, pero incluso en esa ocasión el asteroide volará a una distancia de algo más de 38 millones de kilómetros.

Como señala David Barrado, de Centro de Astrobiología INTA-CSIC, en su libro ‘Peligros cósmicos’ (Oberon), afortunadamente sucesos como el de Chelyabinsk han ocurrido en regiones poco pobladas. «El efecto que pudiera provocar en una gran metrópoli sería en verdad dantesco, sobre todo en el caso de un asteroide similar al que produjo el evento Tunguska», escribe. «…En buena medida seguimos expuestos al azar cósmico. Solo la alerta temprana y la adecuada inversión en ciencia y tecnología nos permitirá disponer de las herramientas precisas para subvertir o atenuar este peligro», concluye. Y que se escuche a quienes nos advierten del mismo, sea una roca extraterrestre, una pandemia mundial o un cambio climático que, si no se actúa pronto, podría aplastarnos tan inexorablemente como un cometa caído del cielo. No será porque no nos han avisado.

Fuente: ABC

.https://www.abc.es/ciencia/abci-no-mires-arriba-posible-evitar-mundo-seis-meses-202201031921_noticia.html