El petróleo, causa de la crisis de 2008

Knownuthing - Game Over?

Las causas de la crisis económica de 2008 y las consecuencias que venimos padeciendo desde entonces siguen sin ser bien comprendidas por mucha gente. Analicemos las causas de la crisis, entre las que el petróleo juega un papel principal.

Este artículo puede considerarse un resumen del artículo "Radiografía de una crisis económica diferente a todas las demás". Los que quieran más detalle sobre el papel jugado por el petróleo en la crisis deberían leerlo.

Mucha gente piensa que la causa de la crisis de 2008 fue una burbuja inmobiliaria. En realidad confunden el síntoma (fiebre) por la causa de la enfermedad (infección).

Para entender la crisis de 2008 es necesario darse cuenta de que era la inevitable conclusión de una serie de tendencias de muy largo plazo. Para ilustrarlas me baso en una figura de Art Berman que mostraba la evolución de los tipos de interés de la Reserva Federal Americana y del precio del petróleo. Aunque la crisis de 2008 fue una crisis mundial, se originó en los Estados Unidos y es por ello que resulta pertinente analizarla desde el punto de vista de los datos de Estados Unidos. Al precio del petróleo y los tipos de interés, le he añadido otros elementos económicos necesarios para entender la situación, como son la deuda privada Norteamericana, la inflación reflejada en la variación del índice de precios al consumo (CPI), y el valor del dólar reflejado en el índice del dólar (USD IDX).

Figura 1. Algunos de los principales indicadores de la economía norteamericana. En negro el precio del petróleo West Texas Intermediate en dólares de 2015. En rojo los tipos de interés de la Reserva Federal Norteamericana. En azul el índice del dólar. En turquesa la deuda privada en los Estados Unidos. En naranja la inflación medida por el CPI (índice de precios al consumo). El tiempo reflejado se puede dividir en tres periodos claramente distinguibles. El primero hasta 1973 de crecimiento sostenible. El segundo hasta 2002 de crecimiento insostenible. El tercero desde entonces, de consecuencias. Fuente: Art Berman y datos oficiales.

Lo que más llama la atención de esta gráfica es lo distinto que parece el último periodo de todo lo anterior. Aquellos que quieran demostrar que las cosas siguen siendo como siempre han sido lo tienen muy difícil a la vista de la evidencia. Desde 2002 nos movemos en un mundo diferente.

Hay que destacar que entre todos los factores reflejados en la gráfica existe una relación, que es la economía. Vamos a analizarla a rasgos generales:

Los tipos de interés los decide la Fed en función del estado de la economía y de la inflación. Cuando la economía se calienta, la Fed incrementa los tipos y cuando se enfría los reduce. Cuando la inflación se dispara la Fed incrementa los tipos para atajarla, y cuando cae mucho los baja para estimular el consumo y alejar el riesgo de deflación.

La relación que el precio del petróleo guarda con la economía, es que cuando la economía crece aumenta la demanda de petróleo empujando el precio al alza y cuando esta cae se produce el efecto contrario. Pero en el precio del petróleo intervienen otros factores, como el valor del dólar. Si el valor del dólar cae se produce una presión para que suba el precio del petróleo, y viceversa.
A su vez el precio del petróleo guarda una clara relación con la inflación. Si sube el precio del petróleo la inflación tiende a subir, y viceversa, si baja el precio del petróeleo la inflación tiende a bajar.

Por último la deuda. El incremento de la deuda posibilita el incremento del consumo, aumentando el crecimiento económico y favoreciendo el incremento de la inflación y del precio del petróleo. También crea una presión a la baja sobre el valor del dólar.

Hasta 1973 tuvo lugar la fase de crecimiento inflacionario de la economía. La economía crecía al tiempo que lo hacían la inflación y los tipos de interés. El precio del petróleo se mantenía bajo y la deuda crecía en la misma proporción que el PIB. La fase de crecimiento insostenible de la economía se inicia en 1973, tras los acuerdos de Bretton Woods que acabaron con la convertibilidad del dólar suponiendo una devaluación, y con la primera crisis de la OPEC que limitó la oferta de petróleo. En el largo ciclo de los tipos de interés que muestra la pirámide colorada de la figura, y que en esencia reproduce el ciclo largo de precios de Kondratieff, equivale al verano de Kondratieff, que está definido por la primera mitad del periodo de crecimiento insostenible, que muestra las características de estanflación de dicho periodo: Bajo crecimiento y alta inflación. Este periodo caótico termina hacia 1985 con el primer gran excedente de petróleo, que causa el hundimiento de los precios. Ahora nos encontramos en el segundo excedente de petróleo. En la misma época la deuda aumenta su crecimiento y se inicia el otoño de Kondratieff, caracterizado por un crecimiento deflacionario de la economía y por un aumento insostenible de la deuda. Todos los indicadores se mueven en conjunto. Inflación a la baja, tipos de interés a la baja, precio del petróleo a la baja y valor del dólar a la baja. Todo ello gobernado por un aumento de la deuda muy superior al aumento del PIB de la economía, pero que parece no tener ningún efecto negativo sobre la economía. Sin embargo al crecer la deuda mucho más que la economía ello se manifiesta en un exceso de dinero que empieza a alimentar una burbuja financiera tras otra.

La gráfica claramente indica que el cambio se produce en el año 2002, en la recuperación de la crisis de 2001-2002. Ahi hay que buscar las raíces de la crisis de 2008. Es el punto donde las correlaciones del periodo 1985-2002 se rompen. Veámoslo algo más aumentado.

Figura 2. Misma figura que 1, aumentada, mostrando las fechas del pico de deuda privada (línea punteada verde), el máximo de petróleo (línea punteada roja), y la quiebra de Lehman (línea punteada negra).

Pues bien, de los cinco factores que se muestran en la gráfica, solo uno rompió filas en 2002. Los tipos de interés y el precio del dólar continuaron su tendencia descendente, y la deuda aceleró su tendencia ascendente. Sin embargo el precio del petróleo pasó a tener una correlación inversa con el dólar. Hasta el año 2002, siempre que había faltado el petróleo era porque los productores habían reducido la producción. En 2002 el petróleo faltó por primera vez porque la demanda crecía más que la oferta. Entre el 2002 y el 2006 el petróleo triplicó su precio (de 28 a 85 dólares/barril). En la primavera de 2003 los Estados Unidos invadían Iraq para tratar de resolver el problema. No lo consiguieron.

Mientras el petróleo y la deuda subían la Fed continuaba bajando los tipos de interés para estimular la incipiente recuperación de la crisis.

A partir de 2004 la Fed comienza a subir los tipos de interés para tratar de controlar la burbuja inmobiliaria que se está desarrollando, llevándolos desde el 1% hasta el 5,25% en 2006. Para entonces el crecimiento económico, alimentado con deuda, ha empujado el precio del petróleo al triple de lo que estaba a inicios de 2002. Son precios por encima de 80 dólares por barril que solo se han visto antes durante la recesión del 1980-82 (a precio constante de 2015, ver figura 1). La economía solo los soporta por el desaforado crecimiento de la deuda que permite pagar el petróleo con cargo al crédito de los consumidores.

Pero la combinación de alto y creciente nivel de endeudamiento, petróleo a precios de crisis económica y tipos de interés relativamente altos para la media de los últimos 15 años es absolutamente tóxica. El hundimiento del dólar a mínimos históricos es una indicación de hacia donde se dirigen los flujos de capital que abandonan un barco que hace agua.

Puesto que el grueso de las malas inversiones se habían dirigido al sector inmobiliario, alimentando una burbuja, es por ahí por donde se rompe el sistema financiero. La cronología es la siguiente:

  • Agosto de 2007. Comienzan las bajadas de tipos ante el inicio de los problemas financieros, hasta el 0,25% en Diciembre de 2008.
  • Julio de 2008. Mayor precio jamás alcanzado por el petróleo en precio absoluto y en precio constante, a 145 dólares por barril de WTI.
  • Julio de 2008. Quiebra de IndyMac, el 4º banco más grande de Estados Unidos en quebrar hasta la fecha.
  • Septiembre de 2008. Los fondos monetarios colapsan debido a retiradas masivas. Quiebra de Lehman Brothers.
  • Octubre de 2008. El Tesoro Norteamericano y la Fed implementan el TARP, primer programa de rescate financiero.

Por lo tanto la causa primera de la crisis de 2008 fue el incremento del precio del petróleo debido a una incapacidad de la oferta de satisfacer la demanda por el pico de petróleo convencional. En el artículo "Radiografía de una crisis económica diferente a todas las demás" se analiza con más detalle el proceso de esta crisis del petróleo. La magnitud de la crisis la definió la magnitud del crecimiento de la deuda privada que tuvo lugar para sostener el crecimiento económico frente al aumento del precio del petróleo que llegó a multiplicarse más de 5 veces durante la crisis. La manifestación de la crisis tuvo lugar en el hundimiento del mercado hipotecario porque era el eslabón más débil de la economía, el lugar donde la deuda era más sensible a un incremento de los tipos de interés y a un empeoramiento de las condiciones económicas.

Antes de 2002 la deuda ya crecía insosteniblemente aunque a menor ritmo, y la burbuja inmobiliaria hubiera causado una crisis económica en cualquier caso, aunque quizá más limitada en su alcance, pero fue el precio del petróleo el que marco el inicio (2002), el ritmo (con su subida), y el que apretó el gatillo (con el disparo de los precios hasta un máximo histórico) de la crisis de 2008. Fue también la causa de la invasión de Iraq.

James Hamilton, de la Universidad de California San Diego, analiza Las causas y consecuencias del shock de petróleo de 2007-2008 en su artículo, donde dice:

Mientras que anteriores shocks del precio del petróleo fueron causados principalmente por rupturas físicas en el suministro, la subida de precios del petróleo de 2007-08 fue causada por una fuerte demanda que se enfrentaba a una oferta mundial en estancamiento. Aunque las causas fueron diferentes, las consecuencias para la economía parecen haber sido similares a las observadas en episodios anteriores, con efectos significativos sobre el gasto en consumo y la compra de automóviles en particular. Sin estos declives es improbable que el periodo 2007-2008 pudiera ser caracterizado como recesión en los Estados Unidos. Este episodio por lo tanto debería añadirse a la lista de recesiones de Estados Unidos en las cuales los precios del petróleo parecen haber hecho una contribución material.
Quien todavía tenga dudas puede leer su artículo, que está lleno de datos y gráficas que lo demuestran.

Con posterioridad a la crisis, hemos vivido un periodo donde han coincidido los tipos de interés más bajos de la historia y los precios medios del petróleo más altos de la historia, como indica Art Bertman. No es coincidencia. Hemos alimentado la última burbuja. Probablemente asistimos al final del control de los bancos centrales de la situación económica.
 
Addendum 05/03/2016

Escenario de un mundo sin pico de petróleo

Los comentarios me animan a un ejercicio de imaginar cual habría sido y sería el devenir de la economía mundial en el caso de que viviéramos en un planeta con muchísimo más petróleo fácil de extraer, donde los yacimientos gigantes de Oriente Medio fueran el doble de grandes, y donde se siguieran descubriendo yacimientos gigantes fácilmente explotables. Es un mundo en el que muchos creen que viven fijándose en las cifras de las reservas declaradas.

Fijándonos en la figura 1, podemos asegurar que todas las tendencias habrían continuado como lo llevaban haciendo desde finales de los 70 en dirección a un mínimo.

El precio del petróleo no se habría disparado al alza desde 2002 y probablemente habría seguido en el entorno de los 30 dólares por barril en el que se encuentra actualmente. La gráfica no mostraría esa fuerte desviación en el precio del petróleo con respecto al resto de las tendencias.

La tendencia de la deuda probablemente no habría mostrado tanta aceleración, ya que buena parte de ella fue dirigida a soportar el aumento del precio del petróleo.

El reventón de la burbuja inmobiliaria habría tenido lugar en cualquier caso, pero no necesariamente en el 2008 ya que su inflado podría haber sido más lento en un entorno de crecimiento menos desmesurado de la deuda. Habría causado serios problemas financieros, que se hubieran solucionado. Las burbujas inmobiliarias son recurrentes como indican los análisis del FMI, y tienen lugar más o menos cada 20 años.

El límite de la deuda se habría alcanzado igualmente y ello nos habría precipitado en un mundo con muy bajo crecimiento como en el que estamos.

La situación sería por tanto un invierno de Kondratieff, que resulta muy negativo para la economía, pero que se resuelve con la inversión de las tendencias en un punto determinado. Gran parte de la deuda se repudia, volviendo a niveles más sostenibles de endeudamiento. Probablemente se produce una crisis monetaria que participa en el pinchazo de la burbuja de deuda, y los tipos de interés comienzan de nuevo un ciclo ascendente volviéndose a una primavera de Kondratieff de crecimiento inflacionista, como tuvo lugar desde los años 40.

En 2016 el mundo imaginario sin pico no sería muy distinto a como es en la actualidad. Muy bajos tipos de interés, muy baja inflación, deuda muy alta y precio del petróleo bajo. Solo el valor del dólar sería más bajo porque no mostraría correlación inversa con el petróleo.

Hemos terminado por tanto esencialmente en el mismo lugar. La principal diferencia es que los productores de petróleo están sometidos a un estrés fortísimo en el mundo actual y recortando las inversiones en petróleo para los próximos años. Pero el futuro es muy distinto en ambos escenarios.

En el mundo real la destrucción económica típica del final del invierno de Kondratieff va a ir acompañada de una destrucción de la producción de petróleo. En un entorno económico tan negativo no va a haber transición energética porque no se va a poder pagar. Cuando se produzca el repudio de la deuda y la crisis monetaria, y termine el invierno, después no vendrá el crecimiento inflacionario de la primavera. Los tipos de interés subirán pero no habrá crecimiento, lo que nos situará en un mundo en crisis semipermanente. La estanflación y las limitaciones energéticas nos llevarán a perder progresivamente partes de nuestra economía que ahora consideramos esenciales y a vivir unas condiciones de vida mucho peores a las del anterior ciclo de Kondratieff.

Los ciclos seguirán, pero la civilización industrial no. La humanidad deberá buscar otro camino.

Decrecimiento y urbanización

 Federico García Barba - Arquiscopio Pensamiento

Hoy en día, están teniendo lugar procesos de decrecimiento urbano en grandes zonas del mundo más desarrollado. Algunos casos son más conocidos y divulgados, como los ocurridos en las ciudades de Detroit y Nueva Orleans en Estados Unidos. O también en la región alemana de Leipzig en Europa.

Aunque la mayoría de la población tiende a no ser consciente de ello, el proceso inexorable de acumulación capitalista está produciendo un proceso de suma cero económico que afecta a la esfera territorial y la geografía: mientras en algunos lugares aumenta la disponibilidad y acumulación de riqueza en manos de unos pocos, la inmensa mayoría de la población del planeta tiene que conformarse con recursos aceleradamente menguantes. Y, al mismo tiempo, se produce una paradoja que afecta a la distinta situación respecto al crecimiento poblacional entre las regiones que concentran gradualmente esa riqueza monetaria y aquellos otros países atrasados que sufren las consecuencias del progreso de la desigualdad en el reparto de los bienes materiales. Mientras las primeras sufren procesos de decrecimiento y estancamiento en su número neto de habitantes, los segundos van a experimentar una expansión urbana sin precedentes en las próximas décadas.


 

Proyección de la evolución de la población estimada en España hasta el año 2052. Fuente INE El Pais


Gráfico comparativo de las tasas de decrecimiento poblacional, incremento de la población dependiente y de baja fertilidad en Japón. Fuente: Fibercity 2050 Hidetoshi Ohno.

Esto puede relacionarse con las propuestas teóricas que determinados pensadores sociales han ido haciendo en las últimas décadas a favor del decrecimiento, entendido como un mecanismo compensatorio frente al deterioro creciente de nuestro planeta.

Las tesis de Georgescu Roegen nos han alertado sobre la Tierra como un entorno de recursos finitos. Un sistema sobre el que se produce un proceso de constante degradación que quizás puede atenuarse promoviendo el máximo reciclaje y reutilización. Y también, Serge Latouche nos señala la conveniencia de una postura ética de reducción del consumo para repartir así la creciente escasez. Frente al mantra del crecimiento productivo constante que domina ideológicamente la disciplina de la economía, ellos proponen la alternativa de las 3 Rs: Reducir el consumo de recursos, reutilizar al máximo los objetos y reciclar los materiales utilizados.

Localización mundial de las ciudades con proceso de decrecimiento (en azul) Fuente: Fibercity 2050 Hidetoshi Ohno.

Para aquellos a los que nos preocupa el futuro de las ciudades, el decrecimiento se puede interpretar como un fenómeno reciente que es desconcertante. Sin embargo, obedece a evidentes procesos económicos y ambientales que objetivamente están produciendo consecuencias colectivas muy negativas. A agravar más los problemas  contribuye el envejecimiento progresivo de la población y tasas de natalidad que se reducen progresivamente. Desde un punto de vista territorial el decrecimiento se manifiesta en una disminución significativa de la población y de las actividades en algunas partes del mundo urbanizado que está motivada por la cambiante renovación productiva que deja obsoletos unos lugares en beneficio de otros. No es algo que no haya ocurrido en el pasado, como lo ejemplifica el caso de la ciudad de Roma en el Medioevo. No obstante, hoy tras dos siglos de expansión brutal de las ciudades en los países más avanzados, el decrecimiento se configura como la apertura de un nuevo e inquietante escenario al que habrá que buscar alternativas en el urbanismo: frente al del abandono y ruina inevitable de muchos centros antiguos y amplias periferias suburbanas, se debe pensar en la preservación de determinados estándares y servicios colectivos en alguna parte de las regiones metropolitanas consolidadas.

Desde la perspectiva de un lugar alejado como Canarias, un espacio geográfico que  experimenta crudamente hoy esos procesos de decrecimiento, es posible observar con admiración la distinta forma para afrontar estos escenarios problemáticos futuros. Desde la anticipación urbanística prevista en lugares como Francia, Holanda o Japón; hasta la búsqueda de soluciones realistas para la explosión urbana en curso en amplías regiones del planeta, como el sur del desierto del Sahara en África.

Así para los primeros se están explorando alternativas regionales que compensen la necesidad de utilización de complejas redes logísticas basadas en energía barata. Se trata de promocionar y apoyar el consumo local de alimentos generando espacios apropiados para su producción y distribución de proximidad como estrategia de supervivencia a largo plazo de las comunidades urbanas. También la incentivación de la idea de linealidad en las ciudades de los países más desarrollados como objetivo para lidiar con escenarios de decrecimiento poblacional debido a la escasa natalidad y el envejecimiento progresivo. En este caso, se trata de promover la concentración de la población a lo largo de las líneas más potente de transporte colectivo para hacer más accesible y económica la dotación de equipamientos y servicios imprescindibles en una situación de creciente escasez de recursos.

Maqueta de una posible reordenación territorial para la producción alimentaria de autoconsumo. Proyecto Park Supermarkt en Amsterdfam Van Bergen-Kolpa  2011
Active Nature. Propuesta de proceso para la reconfiguración paisajistica en la zona del Plateau Saclay de París. SOAArquitectes, 2007.

En Holanda, por ejemplo, se incentiva la investigación prospectiva sobre escenarios plausibles a medio y largo plazo mediante inversiones específicas estatales dedicadas a favorecer la creatividad y la imaginación. Como ocurre con el proyecto Park Supermarkt de los arquitectos Van Bergen-Kolpa. La idea de este proyecto se basa en la configuración y despliegue de una estrategia para garantizar el suministro de carne, pescado, cereales y frutas tropicales en un entorno climático hostil como los Países Bajos. Algo parecido se ha planteado en la zona de interés especial de Plateau Saclay en la periferia al oeste de París. Allí se organizó un concurso de ideas en 2007 para establecer un desarrollo sostenible. La idea ganadora, Active nature de SOA, se plantea como un gradiente de intensidad de urbanización a partir de las redes de transporte guiado entre las zonas más habitadas y los ámbitos forestales, pasando por superficies agrícolas productivas. Se pretende generar así una suerte de ciudad lineal densa en su proximidad a la espina de comunicaciones y transporte público que va a definir la prolongación del metro parisino hasta el lugar, denominada Grand Paris Express. El planteamiento espacial añade en una primera periferia cercana al centro más denso, residencia de baja densidad imbricada con superficies destinadas a huertos urbanos y pastos para animales gestionados por los propios residentes. Hacia el exterior se pretende situar agricultura más tecnificada y molinos para la producción de energía eólica junto con pequeños embalses destinados a piscicultura. Todo ello quedaría enmarcado por los remanentes boscosos que se mantienen en la zona destinados a una recolonización arbórea más potente. De ambos trabajos he escrito en el pasado como parte de una idea sobre la posible recuperación de una ciudad con mayor acceso al suministro alimentario de proximidad. El artículo se titulaba “Hacia la ciudad agraria” y lo publiqué aquí en 2003.

Fibercity 2050. Conjunto de estrategias para la reordenación urbana de  Tokio teniendo en cuenta una perspectiva de decrecimiento poblacional. Ohno Laboratory. Tokyo University, 2007

Otro esfuerzo prospectivo curioso y relevante por lo acertado de sus análisis y  diagnósticos es el que se relaciona con la exposición Fiber City Tokyo 2050, celebrada en dicha ciudad en 2007. La “Ciudad de las Fibras“, propuesta por el profesor Hidetoshi Ohno, es una estrategia para lidiar con un proceso masivo de decrecimiento poblacional. A partir de las proyecciones demogr’aficas es evidente que ese efecto está ocurriendo ya en la conurbación que engloba a la capital del Japón y se va a acelerar en las próximas décadas.

Plasmación en maqueta de la idea para la configuración de los “Dedos verdes”. Fibercity 2050

Fibercity Tokyo se plantea con cuatro ejes de actuación sobre la estructura física de la ciudad, buscando facilitar una concentración de la población remanente en partes concretas de la ciudad metropolitana:

La primera de ellas trataría de lograr la concentración del esfuerzo inversor público en la “red de fibras territoriales” entendidas como los corredores que concentran los servicios de transporte colectivo de más alta capacidad y accesibilidad. Bajo el lema “del plano a la línea” el equipo de Ohno considera que en esas estructuras lineares se pueden disponer espacios de interacción e intercambio en la proximidad de los nodos más significativos. Las operaciones de transformación urbana asociadas se podrían caracterizar por la conversión de los entornos y bordes de esas mallas principales de transporte público y tráfico viario privado en espacios altamente equipados y con mayor densidad edificada.

En segundo lugar, la gestión de los llamados “Dedos accesibles suburbanos“. Este eje de actuación buscaría la prolongación de la red de fibras desde los centros más complejos y mejor dotados que estructuran la metrópolis hacia algunos espacios con vocación de centralidad localizados en los suburbios. Se trataría de extender la accesibilidad a los servicios al mayor número de usuarios posible, lo cual estaría relacionado con los corredores ferroviarios. Estos “dedos suburbanos” se estudian específicamente al objeto de reorganizar, mantener y mejorar la conectividad e incorporación de la población restante más aislada que aun se resistirán a seguir residiendo en lugares más alejados y vacantes. Comprende aumentar el número de estaciones de transporte público y la generación de nodos habitados más compactos y equipados en los que sea posible el acceso a pie desde los alrededores.

Un tercer enfoque es el de los denominados Meisho o “Espacios afamados”. El abandono de una gran parte de la masa edificada debido a la desaparición de sus habitantes conlleva situaciones urbanas conflictivas. Por ello, los autores del estudio han llegado a la conclusión de que es positivo generar procesos de demolición controlada y la apertura de espacios libres en la ciudad densa mediante el derribo de edificación tradicional abandonada y poco adecuada a los seísmos para mejorar su esponjamiento. Ahí pretenden de alguna manera, localizar servicios y equipamientos con destino a los residentes cercanos.

 Arruga verde” para el “Valle de Shibuya”. Fibercity 2050
 
Finalmente, la estrategia Fibercity Tokyo 2050 propone la generación de las llamadas “Arrugas verdes” o “Pliegues urbanos“. Se trataría de generar espacios de actividad económica y productiva sobre la base de los escenarios históricos reconocidos y de carácter más local, con el objetivo de vigorizar un entorno humano homogeneizado y monótono añadiendo vegetación. Al mismo tiempo, se eliminarán las construcciones de madera más sensibles a los terremotos que es un problema latente en un territorio sometido a una sismología recurrente.

Visión del proceso de transformación en la distribución de la población en el área de Tokio como consecuencia de la aplicación de las estrategias propuestas. Fibercity 2050. Ohno Laboratory. Tokyo University, 2007

Lo anterior es un conjunto de propuestas sugerentes que tienen en cuenta escenarios futuros posibles que están afectando ya a determinados lugares situados en los países más avanzados de Norteamérica y el continente europeo. En estas primeras décadas del siglo XXI, de repente, ha ocurrido un cambio profundo al que no estamos sabiendo atender todavía. Desde una situación de crecimiento residencial acelerado se ha pasado a tener un notable excedente de masa edificada residencial con dificultades para un adecuado aprovechamiento. También mucha superficie productiva industrial ha dejado de ser útil mientras es necesario dotar de nuevos espacios para la implantación de actividades avanzadas. Por ello, la alternativa no percibida debe considerar preciso gestionar con contención las nuevas localizaciones de suelo para la escasa expansión urbana previsible. Y, al mismo tiempo, reservar territorio para la reformulación de la matriz ecológica sostenible con el suturado de las discontinuidades actuales. Junto a ello, la adecuación de ámbitos para estimular una agricultura y ganadería de proximidad que supongan un seguro en caso de fallo o encarecimiento de las redes logísticas al uso, basadas en la disposición de energía barata y abundante.

Ante estas nuevas situaciones sociales que están apareciendo en los países más evolucionados es necesario centrarse en algunos problemas ligados a las ciudades y sus arquitecturas, en relación tanto al envejecimiento y la disminución de la natalidad, como a los que se refieren a una nueva visión sobre los objetivos y metodologías aplicables a una planificación positiva del territorio.

Más Información:

Park Supermarkt . Van Bergen-Kolpa Architecten, 2009
Plateau Saclay. SOA Architectes, 2007
Fibercity Tokyo 2050. 12 Visions for cities in the age of shrinkage. Ohno Laboratory, University of Tokyo, 2012

Deberíamos esforzarnos por trabajar menos, no hasta que el cuerpo aguante

Owen Jones - eldiario.es



El trabajo ya consume demasiada parte de nuestras vidas, pero puede que para la próxima generación consuma más aún. La edad para recibir la pensión de jubilación en Reino Unido se incrementará a los 66 años para 2020 y, según vaticinan algunos expertos en su valoración de esa modificación, esos jóvenes afortunados que están entrando ahora en el mundo laboral podrían tener que esperar a tener más de 70 años para recibir una pensión.

Una consecuencia inevitable del aumento de la esperanza de vida, dicen. Pero sin duda un regalo de progreso debería ser dar más años de salud y tranquilidad, no menos.

La cosa va a peor: según el fondo de pensiones Royal London, los asalariados corrientes que hayan estado ahorrando dinero para la jubilación desde la improbable edad de 22 años tendrán que trabajar hasta los 77, si quieren disfrutar de la misma calidad de vida que tuvieron sus padres en su jubilación. En algunos lugares de Reino Unido, esa edad mágica podría ser 81 años. Sesenta años de trabajo ininterrumpido, de ser sirviente de los demás, de una libertad personal restringida y regulada. Imagina cumplir 61 años y darte cuenta de que aún te quedan otros veinte años.

Deberíamos aspirar a una vida más equilibrada: un periodo contribuyendo a la nación y luego décadas de turismo por el mundo, cuidar a los nietos, mirar temporadas completas de series y pasar tiempo de calidad con sus parejas. Cambia esas imágenes por las de septuagenarios atados a sus mesas, practicando operaciones cerebrales o colocando estantes y dime que no te produce escalofríos. ¿Querrán siquiera las empresas emplear a trabajadores tan viejos?

En cualquier caso, ya trabajamos demasiado. Una investigación que publicó la semana pasada la federación sindical TUC muestra que los trabajadores británicos se dejaron el año pasado 31.000 millones de libras (unos 41.000 millones de euros) en horas extra no pagadas. Cinco millones de personas trabajaron gratis una media de 7,7 horas a la semana. Compensarles ese trabajo no pagado supondría, con un salario medio, 6.114 libras (7.900 euros) más al año en sus nóminas.

En el sector público, los trabajadores se ven obligados a donar incluso más trabajo a cambio de nada: son un cuarto de los trabajadores del país pero acumulan un tercio de las horas extra no pagadas. Más empleados que nunca tienen jornadas de trabajo excesivas, consideradas así cuando superan las 48 horas semanales: 3,4 millones de trabajadores (excluyendo los que están en autoempleo) tienen esa situación ahora, lo que supone un salto del 15% desde 2010, tras un largo periodo decreciente. De entre los 29 países europeos de los que Eurostat tiene datos, los trabajadores británicos están entre los que tienen jornadas más largas.

Esto, simplemente, no puede ser bueno para nosotros. No es ninguna sorpresa que en 2014/2015 se perdieran 9,9 millones de días por estrés, depresión o ansiedad en relación con el trabajo, aunque sospecho que muchos sufren en silencio. Sin duda es el momento de invertir mejor el tiempo, de devolver las horas robadas a ver crecer a los hijos, a cultivar nuevas aficiones, a ampliar los horizontes culturales o simplemente a ponerse al día con el sueño, ¿por qué no?

¿Deberíamos rendirnos ante un futuro desalentador en el que el trabajo devore incluso nuestra tercera edad? No hay duda de que tendríamos que empezar a planear un mundo en el que trabajemos menos y no más. Es exactamente eso lo que el convicente libro Inventando el futuro, de Nick Srnicek y Alex Williams, nos pide hacer. En el centro de su visión hay una sociedad en la que nuestras vidas ya no solo giran en torno al trabajo. Señalan que el empleo representa la pérdida de nuestra autonomía, en la que estamos bajo el control de los jefes y de las empresas: "todo un tercio de nuestra vida adulta se dedica a la sumisión a ellos". Su alternativa no es la pereza: leer o hacer deporte requiere esfuerzos, "pero son cosas que hacemos con libertad". Cuando trabajamos menos, nuestras vidas pasan a ser nuestras.

Hubo un momento en que se daba por hecho que el progreso y trabajar menos vendrían de la mano. En los comienzos de la Gran Depresión, John Maynard Keynes sugirió que ahora solo trabajaríamos 15 horas a la semana, pero el trabajador británico a tiempo completo dedica de media 28 horas más que eso. Se asumía que los avances tecnológicos reducirían las necesidades de mano de obra, pero en realidad pueden alimentar la demanda de nuevos tipos de trabajo. Por ejemplo, Srnicek y Williams señalan que la llegada del ordenador personal llevó a la creación de más de 1.500 tipos de trabajo nuevos.

El mundo occidental de después de la guerra disfrutó de casi pleno empleo, una era que hace tiempo que pasó. No solo es que las tasas de desempleo e inactividad son mayores de lo que eran antes, sino que el trabajo se ha vuelto más precario, con contratos de cero horas, autoempleo inseguro y trabajo a tiempo parcial indeseado. Como explican Srnicek y Williams, tener grandes cantidades de personas sin un trabajo seguro ayuda a mantener a raya a quienes tienen un empleo. Creen que la tendencia lleva con seguridad a incluso más trabajo precario.

Esto no es alarmismo. El columnista de  The Times Philip Collins hace referencia a una investigación que dice que la tecnología podría llevar a la automatización del 60% de los empleos minoristas en los próximos veinte años. Puesto que la tecnología está destruyendo más trabajo del que está creando, 11 millones de empleos podrían desaparecer.

Sin embargo, las amenazas también pueden ser oportunidades. Durante mucho tiempo, la izquierda ha dejado de pensar en cómo construir un tipo de sociedad diferente. Sabemos de qué estamos en contra, pero no de qué a favor. Los horrores del totalitarismo estalinista hicieron que las grandes visiones de la sociedad atraigan más bien poco. Una nueva derecha repleta de interés intelectual ha conspirado con la reducción del poder del sindicalismo y otras formas de solidaridad colectiva –un modelo de globalización que parece poner límites estrictos a lo que puede hacer el Estado– para que sea más difícil imaginar la construcción de un tipo de sociedad radicalmente diferente.

Por tanto, es reconfortante oír alternativas, como el manifiesto para el cambio de Srnicek y Williams. En lugar de ver la marcha de los robots como una amenaza existencial, piden la automatización de toda la economía. Se seguiría creando riqueza –solo que lo haría un ejército de máquinas–, pero nos veríamos liberados del "sopor del trabajo". Además, hay que reducir drásticamente la jornada laboral.
Para que eso funcione, hace falta una revisión drástica del sistema de seguridad social. Debería implantarse una renta básica: que todos recibamos una paga del Estado como derecho ciudadano. Es una idea que ya se está extendiendo a los políticos convencionales: el laborista Jonathan Reynolds, que no es  corbynista, está entre los que se han convertido a la renta básica.

Tenemos dos opciones: o bien una sociedad en la que el trabajo sea más dominante que nunca incluso mientras se hace más precario que nunca, en la que algunos trabajan hasta que el cuerpo aguante y otros son demonizados por no poder trabajar; o una sociedad en la que podamos desarrollar nuestro potencial en todos los sentidos, con más tiempo para el ocio, para el amor y para los demás. Yo me quedo con la segunda.
Traducido por:  Jaime Sevilla

Por qué necesitamos un límite a la velocidad en Internet

Kris De Decker (traducido por Pedro Pérez Prieto) - Crisis Energética

La revista en lengua inglesa Low Tech Magazine, ha publicado un interesante artículo titulado “por qué necesitamos un límite a la velocidad en Internet”, que por su interés público y los tremendos cálculos del consumo energético de este gigante que se suponía bastante incorpóreo que son del interés de nuestros lectores, hemos traducido al castellano y ponemos a su disposición.

Se trata de un artículo que trata bastante a fondo la lucha permanente entre los tecno-optimistas que siguen creyendo y confiando en que las mejoras en la eficiencia energética podrán solucionar y solventar cualquier problema al que se tenga que enfrentar nuestra sociedad y los que entienden que en un mundo finito hay límites que no hay mejora de la eficiencia energética que pueda compensar frente al crecimiento desbocado que impone el capitalismo, porque en muchos campos de nuestra moderna civilización, dichos límites ya se pueden estar alcanzando.


El artículo es una reivindicación de William Stanley Jevons y su famosa paradoja sobre un comportamiento humano que hace que siga funcionando el “Maximum Power Principle” enunciado por Howard T. Odum y nos obliga a preguntarnos sobre estos límites y sobre nuestro comportamiento sobre la Tierra. El traductor no comparte necesariamente algunos postulados finales respecto de la “suficiencia” o de las soluciones a limitar la velocidad de Internet ajustando el precio de la energía o sobre que la infraestructura de Internet no está sujeta a dicha “suficiencia” como sí entiende el autor lo están los coches o algunos dispositivos móviles. De hecho, la propia infraestructura mostrará pronto sus límites, no sólo energéticos, sino en complejidad exponencialmente creciente para manejar el número creciente de capas (vamos por al IPv6) que terminan ralentizando a los servidores de los grandes centros de datos, debido a la multiplicación exponencial de preocesos por paquete cada vez que hay que aumentar una capa más. Esta ralentización y complejidad avanza también a mayor velocidad que la velcidad de proceso que van a poder ir obteniendo tecnológicamente, por la mayor eficiencia en las nuevas generaciones de servidores. A esto obliga la conmutación de paquetes, cuando el “Internet de las cosas” se empiece a popularizar. También ya se están dejando entrever problemas de direcciones, cuando "las cosas" terminen exigiendo una dirección para cada una de ellas. todo ello, si es que los límites energéticos no golpean antes a la red de redes que es hoy Internet. Pero de estas últimas complejidades no energéticas, sino de procesos y de tratamientos de datos, hablaremos en otro momento.  



En lo que respecta al ahorro o conservación de energía, los saltos que se han producido en la infraestructura y dispositivos que utilizamos para acceder a Internet han hecho que muchas actividades en línea (online) sean vistas como las que se hacen sin conexión a ella.
Sin embargo, los avances en Internet han provocado un efecto inverso: a medida que la red se va haciendo más eficiente desde el punto de vista energético, su consumo total de energía aumenta. Esta tendencia sólo podrá pararse si se limita la demanda de comunicaciones digitales.




Aunque ésta es una estrategia que empleamos habitualmente, por ejemplo, animando a la gente a que coma menos carne o a bajar el termostato de la calefacción, limitar la demanda es algo controvertido, porque va contra la creencia general en el progreso tecnológico. Y resulta todavía más controvertido cuándo se aplica en Internet, porque muy poca gente establece la relación entre datos y energía
¿Cuánta energía consume Internet? Nadie lo sabe, debido a la complejidad de la red y su naturaleza siempre cambiante. Las estimaciones del consumo total de electricidad que supone Internet pueden variar hasta en un orden de magnitud. Una razón para la discrepancia entre los diferentes resultados es que muchos investigadores sólo analizan una parte de la infraestructura que todos llamamos Internet.


En los últimos años, los estudios se han centrado principalmente en el uso de energía de los centros de datos, que alojan a los ordenadores (los “servidores”) que almacenan la información en línea. Sin embargo, se consume más electricidad comparativamente en los terminales o dispositivos finales (los “clientes”, tales como ordenadores de sobremesa, portátiles y teléfonos inteligentes), en la infraestructura de la red (que transmite la información digital entre servidores y clientes) y en los procesos de fabricación de servidores, dispositivos terminales y de red. [1]


Un segundo factor que explica las grandes diferencias de los diferentes estudios es el tiempo en el que se han realizado. Dado que la infraestructura de Internet evoluciona y crece tan rápidamente, los resultados del uso de energía sólo son aplicables al año en que se realizan. Por último, como con todos los estudios científicos, modelos de investigación y métodos y supuestos utilizados como base para los cálculos varían en algunas veces están polarizados debido a diversas creencias o conflictos de interés. No debería sorprender, por ejemplo, que una investigación del uso de Internet por parte de la  American Coalition for Clean Coal Electricity (Coalición Estadounidense para la Electricidad con Carbón Limpio) concluya que hay un consumo mucho mayor de electricidad que un informe preparado por la propia Industria de las Tecnologías de la Información y las Comunicaciones (TIC) [2,3]
 

Ocho mil millones pedaleando

Considerando todo lo anterior, seleccionamos lo que creímos era el informe más reciente, completo, honesto y transparente sobre la huella total de Internet. Llega a la conclusión de que la red global de comunicaciones consumió 1.815 Twh de electricidad en 2012[4] Ello equivale al 8% de la producción total de electricidad mundial de ese mismo año, que fue de 22.740 TWh[5,6]
Si tuviésemos que alimentar Internet (en 2012) con generadores eléctricos a pedales, cada uno de los cuales pudiese producir 70 vatios de potencia eléctrica, necesitaríamos 8.200 millones de personas pedaleando en tres turnos de 8 horas los 365 días del año. Se incluye en estas cifras el consumo de los dispositivos personales finales, por lo que los que pedalean podrían utilizar sus teléfonos de última generación u ordenadores personales mientras pedalean. La energía solar o eólica no serían una solución, ya que los 1.815 Twh suponen tres veces la electricidad que suministraron todas las plantas de energía eólica y solar del planeta en 2012 [7]



Esos investigadores estimaron que para el 2017, la demanda eléctrica de Internet aumentaría hasta alcanzar los 2.547 Twh (según el escenario de crecimiento esperado) y 3.422 Twh en el peor de los escenarios. Si este último escenario se llega a hacer realidad, el uso de energía vinculada a Internet llegaría casi a duplicarse en apenas 5 años. Nótese que ya se incluyen en dichos resultados  las nuevas mejoras de eficiencia. Sin dichas mejoras, el consumo se duplicaría cada dos años, siguiendo el aumento del tráfico de datos.[8]

Aumento del consumo de energía por usuario
 
Es importante recalcar que el aumento del consumo de energía en Internet no se debe tanto a la creciente cantidad de usuarios de la red, como podría parecer en principio. Más bien se debe al crecimiento en el consumo de energía por usuario de Internet. El tráfico en la red crece mucho más rápido que el número de usuarios de Internet (45% frente al 6-7% anual)[9]. Hay dos motivos principales para ello. El primero es la evolución hacia los sistemas de procesamiento y computación portátiles que utilizan accesos inalámbricos en Internet. El segundo es el aumento de la tasa de datos de los contenidos a los que se accede, principalmente causado por la digitalización de la televisión y de los videos en “streaming” (que se bajan de forma directa según se ven, nota del t.)

En los últimos años hemos asistido a una tendencia hacia los dispositivos portátiles desde los ordenadores de sobremesa, primero con el ordenador portátil y después con las tabletas y los teléfonos avanzados. Este último va camino de la adopción al 100% de los usuarios: en los países ricos, la población ya usa este tipo de teléfonos en un 84%[9,4]. Estos dispositivos consumen bastante menos electricidad que los ordenadores de sobremesa, tanto durante la operación, como en su proceso de fabricación, lo que les ha dado un aura de sostenibilidad. Sin embargo, tienen otros efectos que sobrepasan a las ventajas mencionadas.

En primer lugar, los teléfonos avanzados gestionan una gran parte de el esfuerzo de computación (y por tanto, del uso de energía), desde el terminal hasta el centro de datos: la rápida adopción de teléfonos avanzados va ligada al crecimiento igualmente rápido de servicios de computación “en la nube”, que permiten a los usuarios obviar las limitaciones de la capacidad de memoria y procesamiento de los dispositivos móviles. [4,11] Dado que los datos deben ser procesados y el resultado de los mismos debe transmitirse del usuario final al centro de datos y de nuevo de vuelta, el uso de energía de la infraestructura de la red también aumenta.
 
Internet inalámbrico de alta velocidad
 
Se puede mejorar la eficiencia total de algunas tareas de procesamiento de datos y reducir de esta forma el uso total de energía, porque los servidores de los centros de datos se gestionan de forma más eficiente que nuestros dispositivos terminales. Sin embargo, esta ventaja no se aplica a los teléfonos avanzados que se conectan de forma inalámbrica a Internet utilizando las redes de banda ancha de 3 G ó 4G. El uso de energía en la red es muy dependiente de la tecnología de acceso local: la “última milla” que conecta al usuario a la red troncal de Internet.

Una conexión alámbrica (DSL, cable, fibra) es el método más eficiente energéticamente para acceder a la red. El acceso inalámbrico a través de WiFi aumenta el uso de energía, pero solo de forma ligera. [12,13] Sin embargo, si el uso del sistema inalámbrico se establece a través de la red móvil o celullar y sus torres con las estaciones base, el uso de energía se dispara. El tráfico de Internet a través de redes 3G utiliza 15 veces más energía que una red WiFi, mientras que las redes 4G consumen unas 23 veces más.[14] [Ver también 4, 15]. Los ordenadores de sobremesa se conectaban y conectan habitualmente de forma cableada, pero los portátiles, las tabletas o los teléfonos avanzados se conectan de forma inalámbrica, bien sea a través de WiFi o a través de la red móvil o celular.
 
 


El crecimiento del tráfico de datos de móviles ha estado restringido de alguna forma de descargas WiFi: la conectividad de los usuarios con interfaz 3G estaba restringida, debido a los significativos mayores costes y un funcionamiento lento de la red. [4]  Por ello, se conectaban a las redes WiFi que cada vez estaban más disponibles por doquier. Con el avance de las redes 4G, la ventaja de la velocidad del WiFi desaparece: el 4G dispone de una velocidad comparable o una red mejorada cuya velocidad de intercambio de datos es comparable a la de los WiFi [14] La mayoría de los operadores de red están en proceso de reconvertir a gran escala sus redes a 4G. El número de conexiones mundiales a 4G se ha más que duplicado de 200 millones a 490 millones a finales de 2014 y se prevé que alcancen los 875 millones a finales de 2015.  [11,16,17]

Más tiempo en línea
 
La combinación de dispositivos portátiles de computación o procesamiento y el acceso inalámbirco a Internet aumentan junto con el tiempo que pasamos en línea.[11] Esta tendencia no comenzó con los teléfonos avanzados. Se esperaba que los ordenadores portátiles redujesen el consumo de energía en Internet, pero lo elevaron, porque la gente aprovechó la facilidad y movilidad de los portátiles para estar en línea mucho más tiempo. “Sólo con el ordenador portátil los ordenadores entraron en el cuarto de estar.”[18]

Los teléfonos móviles avanzados son el siguiente paso en esta evolución. Permiten que los datos se consuman en cualquier lugar y fuera de casa, junto con más procesamiento convencional de ordenadores.[19] Una investigación de campo ha revelado, por ejemplo, que los teléfonoz avanzados se utilizan intensivamente para rellenar los “tiempos muertos” (Pequeños tiempos que no se dedican a ninguna actividad específica y que a menudo se perciben como tiempo improductivo: esperar, transportarse, aburrirse, pausas para el café o “situaciones sociales que no son suficientemente estimulantes” Los teléfonos avanzados han pasado también a jugar un papel importante en el tiempo en cama, y son utilizados hasta la última actividad nocturna y en la primera actividad diurna.

Considerando estas tendencias, queda claro que no todos los teléfonos avanzados sustituyen a un ordenador portátilo o de sobremesa. Ambos se utilizan de forma conjunta o incluso simultáneamente. La conclusión es que gracias a los teléfonos avanzados y al Internet inalámbrico, ahora estamos conectados en cualquier lugar y en cualquier momento, utilizando nuestros dispositivos que son cada vez más eficientes, pero durante más horas, enviando más y más datos a través de la infraestructura mundial.[19,20]

El resultado es más uso de energía, desde los propios dispositivos móviles y (mucho más importante) en los centros de datos y en la infraestructura de red. No olvidar tampoco que llamar a alguien utilizando un teléfono móvil avanzado cuesta más energía que hacerlo a través de un teléfono alámbrico convencional.
 
Tasas de transferencias de datos en aumento: música y vídeo

Un segundo factorfundamental detrás del creciente consumo de energía por usuario de Internet reside en el aumento incesante de la tasa de transferencia de datos de los contenidos. Internet comenzó como un medio para texto, pero las imágenes, la música y los vídeos han llegado a ser muy importantes. Bajarse una página de texto requiere muy poca energía. Como ejemplo, todo el texto de este blog (el de los autores originales, nota del t.) con unos 100 artículos, se puede empaquetar en menos de 9 Megabytes (MB) de datos. Una única imagen de alta resolución, en comparación, ocupa unos 3 MB o un vídeo de calidad estándar de 8 minutos de Youtube ocupa unos 30 MB, unas tres veces todos los datos exigidos para los textos del blog.

Debido a que el consumo de energía aumenta con cada bit de datos, es esencial lo que vayamos a hacer en línea (online). Y por lo que parece, estamos utilizando la red cada vez más para contenidos que exigen una elevada tasa de bytes, especialmente vídeo. En 2012, el tráfico de vídeo representó el 57% de todo el tráfico de Internet (excluyendo el vídeo intercambiado entre redes P2P (Pier-to-Pier o de pares extremo a extremo, que pueden actuar ambas como clientes o servidores; nota del t.). Se espera que este porcentaje suba al 69% en 2017.[21]




Si el vídeo y el acceso a Internet son los factores clave tras el aumento del consumo de energía en Internet, por supuesto, el vídeo inalámbrico es el peor de todos ellos. Y este es exactamente el que tiene el mayor aumento en la cuota de tráfico. Según el último Cisco Visual Networking Index, el trráfico de vídeo móvil crecerá un 72% del total de datos móviles en 2019 [11]:

“Cuando las capacidades de los dispositivos se combinan con un ancho de banda mayor, se alcanza una amplia adopción de aplicaciones de vídeo que contribuyen a aumentar los datos de tráfico en la red. A medida que aumenten las velocidades de conexión de la red móvil, aumentará el promedio de flujo de bytes de contenidos ,a los que se accede desde estas redes. Los vídeos de alta definición irán alcanzando más peso y la proporción de contenidos de “streaming” (que se tratan instantáneamente), comparados con los contenidos que se bajan primero, se espera que también aumenten. Este cambio hacia el vídeo bajo demanda afectará a las redes móviles tanto como afectará a las redes fijas”.

El consumo de energía no sólo se ve influenciado por los flujos de datos, sino también por el tipo de servicio proporcionado. Aplicaciones como correos electrónicos, búsqueda en la red y descargas de audio y vídeo exigen tiempos cortos de acceso. Sin embargo, en los servicios en tiempo real, tales como videoconferencias y audio y vídeo “streaming”, los retrasos resultan intolerables. Esto exige una red con una operativa mucho más completa y por tanto, más uso de energía.

¿Ahorra energía Internet?

Con frecuencia se justifica que el creciente consumo de energía en Internet es compensado porque la red ahorra más energía que la que consume. Se atribuye a los efectos de sustitución en los que los servicios en línea reemplazan otras actividades más intensas en energía. [13] Se pone como ejemplo las videoconferencias, que se supone iban a ser una alternativa a la necesidad de utilizar aviones o coches; o la descarga o recepción en directo (“streaming”) de contenidos digitales, que se supone serían una alternativa a la fabricación y el envío de DVD'c, CD's, libros, revistas o periódicos.

Veamos algunos ejemplos. Un estudio de 2011 llegó a la conclusión de que “al reemplazar uno de cada cuatro viajes por videoconferencias, ahorraría tanta energía como la que consume todo Internet”, mientras un estudio de 2014 descubrió que hacer videoconferencia se lleva como mucho el 7% de una persona en dicha reunión” [22,23] En relación con los contenidos digitales, un estudio de 2014 concluyó que cambiar todos los DVD's por vídeos visionados directamente de la red mediante “streaming”, representaría un ahorro equivalente a la energía primaria utilizada para hacer frente a la demanda eléctrica de cerca de 200.000 viviendas por año. [24]


Otro estudio de 2010 descubrió que ver un vídeo mediante “streaming” consumía entre el 30 y el 78% de la energía de un DVD tradicional en las redes de alquiler de DVD's (en los que un DVD se envía por correo al cliente que lo tiene que devolver después) [25]


Existen algunos problemas fundamentales con estas aseveraciones. En primer lugar, los resultados están muy influenciados  por la forma en que se calcula la energía que Internet consume. Si miramos la energía utilizada por bit de datos transportado (la “intensidad energética” de Internet), los resultados varían de 0,00064 a 136 kWh por Gigabyte (kWh/GB), una diferencia de cuatro órdenes de magnitud.[13,19]. Los investigadores que han hecho estas observaciones concluyen que las dudas sobre si y hasta qué extremo es más eficiente energéticamente descargarse una película que comprar el DVD o más sostenible verse por videoconferencia en vez de verse viajando para verse cara a cara, no se pueden resolver de forma satisfactoria, en tanto en cuanto existan estas estimaciones tan divergentes respecto a los impactos de sustitución.[13]


Para empeorar las cosas, los investigadores tienen que hacer una variedad de supuestos adicionales que pueden tener una gran influencia en el resultado final. Si la videoconferencia se compara con un viaje en avión, ¿cuál es la distancia del viaje? ¿Está el avión lleno o no? ¿En qué año fue construido? Por otra parte ¿cuánto tiempo dura una videoconferencia? ¿Se realiza a través de una red de acceso alámbrica o inalámbrica? ¿Se utiliza un ordenador portátil o un sistema de alta gama de telepresencia? Cuando se está escuchando música en “streaming” escucha la canción una o trienta veces? Si compra un DVD, va a la tienda en coche o en bicicleta? ¿Es largo ese viaje? ¿Compra sólo el DVD o aprovecha para comprar otras cosas?


Tiempo y distancia

Todas estas cuestiones se pueden contestar de forma que se pueda “acondicionar” el resultado que se desea. Por ello lo mejor es centrarse en los mecanismos que favorecen la eficiencia energética de los servicios en línea y fuera de línea; lo que los científicos llaman un “análisis de sensibilidad”. Para ser honesto, la mayoría de los científicos hacen este tipo de análisis, pero sus resultados no suelen aparecer en el prólogo del documento y mucho menos en el documento de resumen de prensa.

Una diferencia importante entre los servicios en línea y fuera de línea es el papel del tiempo. En línea, el consumo de energía aumenta con el tiempo de actividad. Si se leen dos artículos en vez de un artículo en un medio de noticias digital, se consume más energía. Pero si se compra un periódico, el consumo de energía es independiente del número de artículos que se leen. Un periódico podría ser leído incluso por dos personas, con lo que su consumo de energía se podría reducir a la mitad.




Además del tiempo, está el factor de la distancia. Fuera de línea el consumo aumenta con la distancia, porque el transporte de una persona o un producto se lleva la mayor parte del total del consumo de  energía fuera de línea. Este no es el caso de las actividades en línea, en las que la distancia tiene poco o ningún efecto en el consumo de energía.

Un análisis de sensibilidad ofrece conclusiones muy diferentes dependiendo de quien lo presenta. Por ejemplo, escuchar en “streaming” 27 veces un álbum de música de Internet puede consumir más energía que fabricar y transportar el CD equivalente. [26] Leer un periódico digital en un PC de sobremesa consume más energía que leer la versión en papel, si la lectura del mismo excede de una hora y cuarto considerando que el papel lo lee una persona.[27] O en el estudio mencionado anteriormente sobre las ventajas de hacer videoconferencias, reduciendo la distancia de viajes de participantes internacionales de 5.000 a 3.000 Km hace el viaje de una persona más eficiente energéticamente que la videoconferencia, cuando se utiliza videoconferencia de alta gama. Igualmente, si la conferencia online llevase 75 en vez de 5 horas, sería más eficiente volar 5.000 Km. [23]


Efecto rebote

Las ventajas energéticas de la videoconferencia, parecen más convincentes, porque las reuniones de 75 horas no parecen muy comunes. Sin embargo, todavía tenemos que discutir el problema más importante con los estudios que indican la ventaja energética de los servicios en línea, porque no suelen tener en cuenta el efecto rebote. Este efecto se refiere a la situación en la que el efecto positivo de las tecnologías con mejores niveles de eficiencia, se anula por factores sistemáticos o comportamientos de los usuarios. Por ejemplo, las nuevas tecnologías raras veces reemplazan las existentes tal cual, sino que por el contrario, se utilizan de forma conjunta unas y otras, negando así los posibles ahorros.[28]

No todas las llamadas por videoconferencia sustituyen los viajes físicos. También pueden reemplazar a una llamada telefónica o un correo electrónico yen estos casos el consumo de energía aumenta, no disminuye.[23] De la misma forma no todos los vídeos o música vistos o escuchados en directo a través de la red sustituyen a los DVDs o CDs físicos. La conveniencia del “streaming” y la ventaja de los dispositivos portátiles terminales con acceso inalámbrico, conducen a más horas viendo vídeos o escuchando música.[24], en detrimento de otras actividades que podrían ser la lectura, la contemplación del medio o mantener una conversación con otra persona física.


Dado que la infraestructura de la red de Internet se va haciendo más eficiente cada año -el uso por bit de datos transportado sigue disminuyendo-, con frecuencia se deduce de ello que las actividades en línea se harán más eficientes con el tiempo, comparadas con las actividades fuera de línea [3]. Sin embargo, como hemos visto, la tasa de bits de los contenidos digitales sigue también aumentando.
Esto no sólo se debe a la creciente popularidad de las aplicaciones de vídeo, sino también al aumento de la tasa de bits de los propios vídeos en sí. Por tanto, las futuras mejoras de la eficiencia en la infraestructura de la red, traerán vídeos y videoconferencias de mayor calidad, no más ahorros de energía. Según estos estudios, las tasas de transferencia de bits aumentan más rápidamente que la eficiencia energética, de forma que las ganancias de las alternativas en línea en realidad van a pérdidas.[23,24,25]


La eficiencia impulsa el uso de energía

El efecto rebote se presenta frecuentemente como un asunto controvertido, como algo que puede darse o no. Pero al menos en lo que respecta a la computación o sistemas informáticos y a Internet, esto es una ley de hierro. El efecto rebote se manifiesta sin duda alguna por el hecho de que la intensidad energética en Internet (la energía consumida por unidad de información transmitida) disminuye, mientras que el uso total de la energía en Internet sigue aumentando.

El obvia también la evolución de los microprocesadores. El consumo eléctrico en la fabricación de una microprocesador ha caído de 0,028 kWh por Mhz en 1995 a 0,001 kWh/Mhz en 2006, como resultado de las mejoras en los procesos de fabricación[29]  Sin embargo, ello no ha provocado un descenso paralelo del consumo de los microprocesadores. Las mayores prestaciones funcionales de los microprocesadores (más rápidos) han contrarrestado las ganancias por eficiencia por Mhz de velocidad. De hecho, el efecto rebote es conocido como la Ley de Moore, que se da en el progreso de los ordenadores o computadores.[28,29]




En otras palabras, aunque las mejoras en eficiencia energética se presentan de forma generalizada como una solución al creciente consumo de energía, en realidad son las causantes del mismo. Cuando los ordenadores se basaban todavía en válvulas de vacío en vez de transistores o de chips, la energía utilizada por una máquina podría ser de unos 140 kW. Los ordenadores actuales son al menos 1.000 veces más eficientes, pero es precisamente ese aumento de la eficiencia energética el que ha hecho que haya hoy un ordenador cada mesa y en cada bolsillo. El consumo de energía combinado de todas esas máquinas mucho más eficientes sobrepasa al consumo de todos los ordenadores que funcionaron con válvulas de vacío en varios órdenes de magnitud.

Suficiencia

Para concluir, vemos que Internet afecta al consumo de energía en tres niveles. El primer nivel es el del impacto directo a través de la fabricación, operación y desmantelamiento de todos los dispositivos que constituyen la infraestructura de Internet: dispositivos terminales, centros de datos, red y fabricación. En un segundo nivel existen efectos indirectos del consumo de energía debidos a la capacidad de Internet de cambiar cosas, tales como el consumo de contenidos o los viajes físicos, lo que conlleva una reducción o aumento del consumo de energía. Y en tercer lugar, Internet cambia los hábitos de consumo, trae un cambio social y tecnológico y contribuye al crecimiento económico.[28,29] Los sistemas de mayor nivel son mucho más importantes que los impactos directos, aunque reciban muy poca atención. [29]

Internet conlleva una globalización progresiva de la economía que ha causado de esta manera un aumento del transporte de productos materiales y de personas...El efecto de inducción que surge de la globalización de los mercados y las formas distribuidas de la producción debido a las redes de telecomunicación, se aparta claramente del camino de la sostenibilidad (sustentabilidad)...Finalmente la sociedad de la información significa también aceleración de los procesos de innovación y de esta forma, implica una devaluación más rápida de lo existente que se reemplaza por lo nuevo, sea hardware o software, productos técnicos o habilidades y conocimiento humano” [28]

nadie niega que Internet puede ahorrar energía en algunos casos particulares, pero en general la tendencia abrumadora es hacia un consumo de energía aún mayor. Esta tendencia continuará imparable si no actuamos. No existen restricciones en la tasa de bits o datos digitales. El Blu-ray ofrece una mejor visión del contenido, con tamaños de datos que oscilan entre los 25 y los 50 GB, cinco veces el tamaño de un video en HD. Con los espectadores viendo películas en 3D en casa podemos imaginar películas futuras de 150 GB, mientras que las películas holográficas pueden llegar a los 1.000 GB[25].

Tampoco hay restricción alguna de las tasas de bits de las conexiones inalámbricas de Internet. Los ingenieros ya preparan el 5G, que será más rápido que el 4G, pero también consumirá más energía. No existe restricción en el número de conexiones a Internet. El concepto de “Internet de las cosas”  prevé que en el futuro todos los dispositivos puedan conectarse a Internet, una tendencia que ya está teniendo lugar.[4,11]  Y no debemos olvidar que por el momento, sólo el 40% de la población mundial tiene acceso a Internet.
 

 
En resumen, no hay otros límites al crecimiento de Internet que el del propio suministro energético al sistema. Esto hace de Internet algo único, Por ejemplo, mientras el efecto rebote es también muy obvio en coches, existen otros límites adicionales que impiden que el aumento de su consumo de energía siga imparable. Los coches no se pueden hacer más grandes o más pesados indefinidamente, ya que requerirían nuevas carreteras e infraestructuras de estacionamientos. Y los coches tampoco pueden aumentar su velocidad de forma indefinida, porque la seguridad impone límites máximos de velocidad. El resultado es que la energía que consumen los coches se ha estabilizado, más o menos. Se podría argumentar que los coches han alcanzado un estado de “suficiencia”.

“Un sistema que consume inputs del medio puede o bien aumentar su consumo siempre que tenga posibilidad de hacerlo, o mantener su consumo dentro de ciertos límites. En este caso, se dice que el sistema alcanza un estado de suficiencia...Un sistema suficiente puede mejorar sus outputs sólo mejorando la eficiencia de sus procesos internos”.[31]


El rendimiento de los coches sólo ha aumentado dentro de los límites de las mejoras de eficiencia de los motores de combustión interna. Se puede observar un fenómeno similar en los sistemas de ordenadores portátiles, que han llegado a un estado de suficiencia en lo relativo al consumo eléctrico, al menos por lo que respecta al dispositivo en sí. [31] En los teléfonos avanzados, el consumo de energía viene limitado por una combinación de limitaciones de la batería; su densidad energética, su peso máximo aceptable y la vida exigible de la batería. La consecuencia es que el consumo por dispositivo ya permanece más o menos estable. El rendimiento de los teléfonos avanzados ha aumentado solamente dentro de los límites de loas mejoras de la eficiencia en procesamiento (y de alguna forma en el progreso de la densidad energética de las baterías) [31]


Un límite de velocidad para Internet

En contraste, Internet tiene poca suficiencia. En Internet, el tamaño y la velocidad no resultan impracticables o peligrosas. Las baterías limitan el consumo de energía de los sistemas móviles de procesamiento, pero no el consumo energético de todos los demás componentes de la red. Por tanto, el consumo de energía de la red, sólo parará de crecer cuando las fuentes de energía se agoten, a menos que nos autoimpongamos ciertos límites, similares a aquellos de los coches o de los dispositivos de procesamiento. Esto puede parecer raro, pero es una estrategia que solemos aplicar con bastante facilidad al confort térmico (bajar el termostato, vestirse mejor) o al transporte (tomar la bicicleta en vez del coche) 

Hay varias formas de limitar la demanda de datos, alguna de las cuales resultan más prácticas que otras. Podríamos ilegalizar el uso del vídeo y volver a hacer de Internet un medio de intercambio de texto e imágenes. Podríamos limitar la velocidad de las conexiones inalámbricas de Internet. O podríamos aumentar los precios de la energía, que podrían afectar también a las alternativas fuera de línea y así equilibrar el terreno de juego. Esta última estrategia es la preferida, porque deja al mercado decidir sobre qué aplicaciones y servicios podrán sobrevivir.


Aunque ninguna de estas opciones puede parecer atractiva, es importante recalcar que fijar un límite no impedirá el progreso tecnológico. Seguirán los avances en eficiencia energética que darán lugar a que aparezcan nuevos dispositivos y aplicaciones. Sin embargo, la innovación tendrá uqe realizarse dentro de los límites de las mejoras de eficiencia energética, como ahora sucede con los coches y los sistemas móviles de procesamiento. En otras palabras la eficiencia energética puede ser una parte importante de la solución si se combina con la suficiencia


Limitar la demanda implicaría también que algunas actividades en línea volviesen a hacerse fuera de línea, siendo el vídeo en directo (en “streaming”) el candidato número uno. Es bastante fácil imaginar alternativas fuera de línea que ofrezcan ventajas similares con mucho menor consumo de energía, tales como videotecas públicas con amplias colecciones de DVDs. Combinando esto con medidas para reducir el tráfico de automóviles, de forma que la gente pudiese ir a la videoteca utilizando bicicletas o transporte público, podría resultar un servicio eficiente y conveniente. Más que reemplazar el transporte físico por servicios en línea, deberíamos arreglar la infraestructura del transporte.


En los siguientes artículos, investigamos las redes de tecnologías de bajo nivle que se están desarrollando en los países pobres. En ellos, la “suficiencia” está imbricada en la misma sociedad, de fomra notable en forma de una infraestructura energética poco fiable y una limitada capacidad adquisitiva. También discutiremos las redes comunitarias que han surgido como hongos en regiones apartadas de los países ricos y los diseños de redes compartidas en ciudades. Esas redes alternativas ofrecen alternativas mucho más eficientes energéticamente para las comunicaciones digitales mediante un uso diferente de Internet.


Por Kris De Decker (Editado por Jenna Collett). Traducción al castellano de Pedro Prieto
Fuentes:

[1] Incluso los estudios más completos sobre el consumo de energía en Internet no tienen encuenta todos los componentes de la infraestructura. Por ejemplo, se ignora completamente la energía embebida en las plantas energéticas eléctricas que alimentan Internet. Sin embargo, si se maneja un centro de datos, o una estación base de una red móvil o celular con energía solar, es obvio que la energía que costó producir los paneles debería ser también incluída. Lo mismo sucede con las baterías que almacenan la energía solar para su uso durante la noche o los días nublados
[2] "The cloud begins with coal: big data, big networks, big infrastructure, and big power" (PDF), Mark P. Mills, National Mining Association / American Coalition for Clean Coal Electricity, augustus 2013
[3] "SMARTer2030 -- ICT Solutions for 21st Century Challenges" (PDF), Global e-Sustainability Initiative, 2015
[4] "Emerging trends in electricity consumption for consumer ICT", Peter Corcoran, 2013
[5] "Key Electricity Trends" (PDF), IEA Statistics, 2015
[6] Of the total, 852 TWh was consumed by end-use devices, 352 TWh by networks, 281 TWh by data centers, and 330 TWh during the manufacturing stage.
[7] "Worldwide electricity production from renewable energy sources, edition 2013", Observ'ER
[8] Los investigadores también ofrecen un escenario mejor (best case)en el que la energía aumenta sólo ligeramente. Sin embargo, este escenario está superado por la realidad. Supone un crecimeinto lento de datos inalámbricos y de televisiones digitales, pero ha sucedido lo exactamente opuesto, como muestra el Cisco Visual Networking Index [11] Además, el escenario mejor posible prevé una mejora anual de la eficiencia del 5% para la mayor parte de los dispositivos de diferentes categorías y una mejora anual de la eficiencia del núcleo de la red de un 15%. Estas cifras están muy por encima de las de los últimos años y no parece muy posible que se puedan hacer realidad. El escenario de crecimiento supone que el tráfico inalámbrico de Internet crezca hasta el 9% del total del consumo eléctrico de la red eléctrica mundial y que la televisión digital se estabilice en los 2.100 millones de unidades. En este escenario las mejoras de la eficiencia energética de los dispositivos se limitan al 2% anual, mientras la mejora de la eficiencia energética del núcleo de la red se limita al 10% anual. En el escenario del peor caso posible, el tráfico inalámbrico de Internet crece al 15% del total del consumo electrico mundial, la televisión digital sigue creciendo y las mejoras de la eficiencia energética se reducen del 1 al 5% anual para los dispositivos y un 5% para el núcleo de la red [4].
[9] "Measuring the Information Society Report 2014" (PDF), International Telecommunication Union (ITU), 2014
[11] "Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update, 2014-2019", CISCO, 2015.
[12] "Small network equipment key product criteria", Energy Star, retrieved September 2015.
[13] "The energy intensity of the internet: home and access networks" (PDF), Vlad Coroama, 2014
[14] "A close examination of performance and power characteristics of 4G LTE networks" (PDF), Junxian Huang, June 2012.
[15] "Energy consumption in mobile phones: a measurement study and implications for network applications" (PDF), Niranjan Balasubramanian, 2009
[16] "4G networks to cover more than a third of the global population this year, according to new GSMA intellligence data", GSMA Intelligence, 2015
[17] El fabricante de equipos de red Cisco señala en su informe de 2015 que “a medida que la capacidad de la red móvil aumenta y el número de dispositivos múltiples de los usuarios también, los operadores parecen más proclives a ofrecer paquetes de banda ancha comparables en precio y velocidad a aquellos que operan con la red fija de banda ancha”[11] Si esto llega a ser cierto y la mayoría de los usuarios de Internet se terminan conectando de forma rutinaria a la red de 4G de banda ancha, el consumo de energía en la infraestructura de la red se duplicará largamente, suponiendo que el tráfico se mantenga igual. [4]  Esto es porque desde una perspectiva energética, la red de acceso es la parte egoísta de cualquier proveedor de servicios de red. La red central de cables ópticos es mucho más eficiente energéticamente.[4]
[18] "Are we sitting comfortably? Domestic imaginaries, laptop practices, and energy use". Justin Spinney, 2012
[19] "Demand in my pocket: mobile devices and the data connectivity marshalled in support of everyday practice" (PDF), Caolynne Lord, Lancaster University, april 2015
[20] "Towards a holistic view of the energy and environmental impacts of domestic media and IT", Oliver Bates et al., 2014
[21] "Cisco Visual Networking Index 2012-2017", Cisco, 2013
[22] "The energy and emergy of the internet" (PDF), Barath Raghavan and Justin Ma, 2011
[23] "Comparison of the energy, carbon and time costs of videoconferencing and in-person meetings", Dennis Ong, 2014
[24] "The energy and greenhouse-gas implications of internet video streaming in the united states", 2014
[25] "Shipping to streaming: is this shift green?", Anand Seetharam, 2010
[26] "MusicTank report focuses on environmental impact of streaming platforms", CMU, 2012
[27] "Screening environmental life cycle assessment of printed, web based and tablet e-paper newspaper", Second Edition, Asa Moberg et al, 2009
[28] "Information Technology and Sustainability: essays on the relationship between ICT and sustainable development", Lorenz M. Hilty, 2008
[29] "Environmental effects of informantion and communications technologies", Eric Williams, Nature, 2011
[30] "Computing Efficiency, Sufficiency, and Self-Sufficiency: A Model for Sustainability?" (PDF), Lorenz M. Hilty, 2015