Reportes especiales: ¿“Cosecha de dolor” tecnológica?

7 de agosto de 2019 | Daron Acemoglu.

CAMBRIDGE – La tecnología digital transformó la forma en que nos comunicamos, trabajamos, hacemos compras, aprendemos y nos entretenemos. Es posible que en poco tiempo, tecnologías como la inteligencia artificial (IA), el big data e Internet de las Cosas (IdC) reformulen por completo la atención médica, la energía, el transporte, la agricultura, el sector público, el medioambiente e incluso nuestras mentes y cuerpos

La aplicación de la ciencia a los problemas sociales generó grandes beneficios en el pasado. Mucho antes de la invención del microprocesador de silicio, innovaciones médicas y tecnológicas ya habían vuelto nuestras vidas mucho más cómodas (y largas). Pero la historia también está repleta de desastres causados por el poder de la ciencia y el afán de mejorar la condición humana.

Por ejemplo, los intentos de aumentar la productividad agrícola con el auxilio de la ciencia y la tecnología en el contexto de la colectivización en la Unión Soviética y en Tanzania fueron totalmente contraproducentes. Y a veces, los planes de remodelar ciudades apelando a la planificación urbana moderna las dejaron casi destruidas. El politólogo James Scott denominó “alto modernismo” a esos intentos de transformar la vida ajena mediante la ciencia.

Una ideología tan peligrosa cuanto dogmáticamente hiperconfiada, el alto modernismo se niega a reconocer que muchas prácticas y conductas humanas tienen una lógica inherente que está adaptada al complejo entorno en el que evolucionaron. Cuando los altomodernistas descartan esas prácticas para instituir una forma más científica y racional de hacer las cosas, casi siempre fracasan.

Históricamente, los ejemplos de alto modernismo más nocivos se han dado bajo estados autoritarios que quisieron transformar sociedades postradas y débiles. En el caso de la colectivización soviética, el autoritarismo estatal, producto del autoproclamado “papel rector” del Partido Comunista, llevó adelante sus planes en ausencia de organizaciones capaces de oponerles una resistencia efectiva o proteger a los campesinos a los que aplastó.

Pero el autoritarismo no es exclusividad de los estados. También puede originarse en cualquier pretensión de conocimiento o capacidad superiores sin restricciones. Basta pensar en los intentos contemporáneos de corporaciones, emprendedores y otros que quieren mejorar el mundo a través de las tecnologías digitales. Innovaciones recientes aumentaron enormemente la productividad industrial, mejoraron las comunicaciones y enriquecieron las vidas de miles de millones de personas. Pero también podrían degenerar fácilmente hacia un fiasco altomodernista.

Tecnologías de frontera como la IA, el big data e IdC suelen presentarse como panaceas para la optimización del trabajo, la recreación, la comunicación y la atención médica. La idea sería que tenemos poco que aprender de las personas ordinarias y de las adaptaciones que desarrollaron dentro de diferentes contextos sociales.

El problema es que una creencia incondicional en que “la IA es mejor en todo”, por dar un ejemplo, crea un desequilibrio de poder entre quienes desarrollan esas tecnologías y quienes verán sus vidas transformadas por ellas (y que básicamente no tienen ninguna influencia en el modo en que esas aplicaciones se diseñarán y usarán).

Los problemas actuales de las redes sociales son un ejemplo perfecto de lo que puede suceder cuando se imponen reglas uniformes sin ninguna consideración por el contexto social y por las conductas resultantes de la evolución. Las ricas y variadas pautas de comunicación del mundo no digital han sido reemplazadas, en plataformas como Facebook y Twitter, por modos de comunicación guionados, estandarizados y limitados. El resultado es la aniquilación de los matices presentes en la comunicación cara a cara y en la presentación de noticias mediada por proveedores confiables. Los intentos de “conectar el mundo” mediante la tecnología han creado una maraña de propaganda, desinformación, discurso de odio y hostigamiento.

Pero este sendero típicamente altomodernista no está predestinado. En vez de ignorar el contexto social, los desarrolladores de nuevas tecnologías podrían aprender algo de las experiencias e inquietudes de la gente real; crear una tecnología adaptativa en vez de arrogante, diseñada para empoderar a la sociedad en vez de silenciarla.

Hay dos fuerzas que pueden llevar las nuevas tecnologías en esa dirección. La primera es el mercado, que puede actuar como una barrera contra la imposición autoritaria de proyectos errados. Cuando los planificadores soviéticos decidieron colectivizar la agricultura, los aldeanos ucranianos poco pudieron hacer para detenerlos, y a eso siguió la hambruna. No es igual con las tecnologías digitales de la actualidad, cuyo éxito dependerá de decisiones tomadas por miles de millones de consumidores y por millones de empresas en todo el mundo (con la posible excepción de China).

Pero no hay que exagerar el poder controlador del mercado. No hay garantías de que promueva la adopción generalizada de las tecnologías correctas, ni de que internalice los efectos negativos de algunas aplicaciones nuevas. Que el ámbito donde Facebook existe y reúne información sobre sus 2500 millones de usuarios activos sea un entorno de mercado no implica que podamos confiar en el uso que dará a esos datos. El mercado no puede garantizar que el modelo de negocios de Facebook y las tecnologías que lo sostienen no traigan consecuencias imprevistas.

Para que el poder controlador del mercado funcione, hay que reforzarlo con un segundo freno más poderoso: la política democrática. Todos los estados tienen un papel que cumplir en regular la actividad económica y el uso y la difusión de nuevas tecnologías. La política democrática suele impulsar la demanda de esa regulación, y también es la mejor defensa contra la captura de las políticas estatales por empresas rentistas en busca de aumentar su cuota de mercado o sus ganancias.

La democracia también ofrece el mejor mecanismo para la expresión de una variedad de puntos de vista y para organizar la resistencia a planes altomodernistas costosos o peligrosos. La exteriorización de la opinión pública permite frenar o incluso prevenir las aplicaciones de vigilancia, seguimiento y manipulación digital más perniciosas. La expresión democrática fue precisamente lo que se les negó a los aldeanos ucranianos y tanzanos confrontados con esquemas de colectivización.

Pero la celebración periódica de elecciones no bastará para impedir a las grandes tecnológicas crear una pesadilla altomodernista. En la medida en que las nuevas tecnologías puedan obstaculizar la libertad de expresión y el compromiso político y profundizar la concentración de poder en los sectores público o privado, pueden frustrar el funcionamiento de la política democrática misma, creando al hacerlo un círculo vicioso. Si el mundo de la tecnología opta por el camino altomodernista, puede terminar dañando nuestra única defensa confiable contra su arrogancia: la supervisión democrática del desarrollo y uso de nuevas tecnologías. Nosotros, consumidores, trabajadores y ciudadanos, debemos ser más conscientes de la amenaza, porque somos los únicos que podemos detenerla.

Link: https://www.project-syndicate.org/commentary/big-tech-high-modernist-disaster-by-daron-acemoglu-2019-08/spanish

Publicado por Santillán Guzmán Fernanda.

Reportes especiales: «Una distensión del BCE no es suficiente»

1 de agosto de 2019 | Lucrezia Reichlin.

L ONDRES – Si se confirman las indicaciones de crecimiento económico desalentadoras en la eurozona, el Banco Central Europeo distenderá aún más la política monetaria en septiembre. La semana pasada, el presidente saliente del BCE, Mario Draghi, mencionó la posibilidad de un nuevo recorte en la tasa sobre los depósitos a la vista de los bancos comerciales, que ya está en -0,4%, A su vez, el BCE está analizando un nuevo programa de compras de activos.

Claramente hace falta un estímulo económico. La inflación anual está muy por debajo de la meta del BCE de “cerca de pero debajo de 2%” y los mercados financieros esperan que se mantenga así por varios años. Es más, la eurozona ha crecido más lentamente que la economía de Estados Unidos desde la crisis financiera global de 2008. El crecimiento ha decaído desde que alcanzó un pico en el tercer trimestre de 2017, y volvió a desacelerarse en el segundo trimestre de este año.

También es evidente que los gobiernos nacionales en la eurozona son reacios a ofrecer un estímulo fiscal coordenado, a pesar de los pedidos del BCE y de muchos economistas. Intencionalmente o no, el BCE sigue siendo la única apuesta.

La pregunta es si la política monetaria por sí sola puede ayudar a mejorar el crecimiento real y la perspectiva de inflación en la eurozona. La política monetaria puede ser una herramienta poderosa. La clave del esfuerzo exitoso del presidente Franklin D. Roosevelt por revivir la economía estadounidense en los años 1930 no fue un gasto deficitario sino más bien el gran estímulo monetario como resultado de que Estados Unidos abandonara el patrón oro antes de que lo hicieran los países de Europa continental. Hoy, el BCE necesita pergeñar algo similar con diferentes herramientas.

En principio, llevar la tasa de depósitos del BCE un poco más en territorio negativo debería eliminar la restricción de la expectativa de que las tasas de interés de corto plazo futuras se vuelvan negativas y, por lo tanto, aplanar la curva de intereses a plazo. Un recorte de tasas también debería ejercer una presión bajista sobre el tipo de cambio del euro, permitiendo potencialmente que los exportadores de la eurozona se vuelvan más competitivos.

Pero una medida de ese tipo sería polémica, en particular porque haría mella en la rentabilidad de los bancos que no pueden trasladar las tasas de depósito negativas del BCE a sus clientes. Esas políticas tienen efectos heterogéneos entre los bancos, y una medida paliativa, aunque posible, requiere de una ingeniería compleja.

Según un análisis del personal del BCE, los bancos “fuertes” de la eurozona son capaces de trasladar tasas negativas a sus clientes corporativos; los bancos “débiles” no pueden hacerlo.

El BCE, por lo tanto, está considerando maneras de mitigarlo –en especial, brindando condiciones muy favorables en los préstamos especiales que ofrecerá bajo el programa TLTRO III, que probablemente tomen los bancos “débiles”-. Por otra parte, se está considerando un sistema gradual en el que las reservas por debajo de un cierto umbral no sean objeto de tasas negativas. Pero esto probablemente beneficie a los bancos más fuertes de los países centrales más fuertes de la eurozona como Alemania, Francia y Holanda, que en conjunto tienen aproximadamente un tercio de todos los depósitos en el BCE.

Más allá de estas consideraciones técnicas, los responsables de las políticas deben lidiar con dos causas fundamentales de exceso de demanda de reservas del banco central entre los bancos de la eurozona. Una es la demanda muy elevada de activos seguros en general –y los bancos en los países centrales de la eurozona tienen pocos incentivos para tener deuda de sus propios gobiernos cuando la tasa de interés está por debajo de la tasa de depósitos del BCE-. Otra causa es la segmentación del mercado interbancario de la eurozona que, si se implementara la graduación del BCE, impediría que los bancos fuertes se beneficiaran de las oportunidades de arbitraje al prestarles a los bancos débiles a una tasa por encima de -0,4%. Ambas causas son el resultado del sistema bancario disfuncional de la eurozona, en el que la demanda de activos seguros implica un “sesgo nacional” y una fuerte demanda de deuda soberana de los países centrales.

En estas circunstancias, al BCE no le resultará fácil implementar una política que eliminaría la restricción del límite inferior igual a cero sobre las tasas de interés, garantizando a la vez que los efectos distributivos de la política en los bancos y los estados miembro de la UE sea neutral. Hacer esto demandará muchos instrumentos y un diseño complejo, lejos del marco simple de una herramienta para un objetivo que era la práctica recomendada antes de la crisis financiera.

Es más, las tasas negativas se vuelven menos efectivas con el tiempo y, si esto se dilata, pueden tener efectos indeseados –por ejemplo, induciendo a los ahorristas a salir del riesgo y generando así, potencialmente, burbujas de los precios de activos y aumentando la desintermediación financiera. El estímulo positivo de la depreciación del tipo de cambio del euro podría compensar esos efectos, pero sólo si otros bancos centrales –y especialmente la Reserva Federal de Estados Unidos- no toman medidas de alivio al mismo tiempo. Y el 31 de julio, la Fed anunció un recorte de un cuarto de punto porcentual muy esperado en su tasa de interés de referencia, mientras que no pueden descartarse futuros recortes.

Sin embargo, el principal problema es que ni las tasas negativas ni el alivio cuantitativo por sí mismos pueden afrontar la aversión al riesgo generalizada que retrasa la economía de la eurozona. El BCE está intentando desalentar la demanda de activos seguros haciendo que su tenencia resulte muy costosa, pero no puede abordar las causas del incremento de esa demanda. Esta es una tendencia global impulsada por varios factores, entre ellos cambios demográficos, una incertidumbre generalizada vinculada a la transformación tecnológica y riesgos políticos como las guerras comerciales y el nacionalismo. Pero en la eurozona están exacerbados por la falta de reforma de la moneda única.

Más de diez años después de la crisis financiera, los mercados financieros de la eurozona todavía están fragmentados y la oferta de activos seguros está limitada por la política fiscal conservadora de los países del norte de Europa, particularmente Alemania. Los responsables de las políticas de la eurozona deben, por ende, encontrar la voluntad política de diseñar un paquete integral de medidas financieras y fiscales destinadas a inyectar nueva energía en el proyecto europeo. Un tipo de estrategia combinada de estas características es esencial para afrontar la aversión al riesgo tan arraigada que debilita el crecimiento en la eurozona.

En los años 1930, el principal estímulo de Estados Unidos fue monetario, no fiscal, pero un ingrediente vital del éxito fue un conjunto integral de reformas combinado con un mensaje fuerte capaz de unificar al país. Hoy, Europa necesita una versión del siglo XXI de esa política.

Link: https://www.project-syndicate.org/commentary/european-central-bank-stimulus-eurozone-by-lucrezia-reichlin-2019-08/spanish

Publicado por Santillán Guzmán Fernanda.

Reportes especiales: «Por qué la economía debe volverse digital»

7 DE JUNIO DE 2019 | Diana Coyle.

La economía convencional no ha logrado mantenerse al día con el rápido ritmo de la transformación digital, y está luchando por encontrar formas prácticas de abordar el creciente poder de las empresas tecnológicas dominantes. Si los economistas quieren seguir siendo relevantes, deben repensar algunos de los supuestos básicos de su disciplina.

C AMBRIDGE: una de las mayores preocupaciones sobre los gigantes tecnológicos de hoy es su poder de mercado. Al menos fuera de China, Google, Facebook y Amazon dominan la búsqueda en línea, las redes sociales y el comercio minorista en línea, respectivamente. Y, sin embargo, los economistas no han logrado abordar estas preocupaciones de manera coherente. Para ayudar a los gobiernos y a los reguladores mientras luchan por abordar esta concentración del mercado, debemos hacer que la economía misma sea más relevante para la era digital.

Los mercados digitales a menudo se vuelven altamente concentrados, con una empresa dominante, porque los jugadores más grandes disfrutan de importantes retornos a escala. Por ejemplo, las plataformas digitales incurren en grandes costos iniciales de desarrollo, pero se benefician de los bajos costos marginales una vez que se escribe el software. Se benefician de los efectos de red, por lo que cuantos más usuarios tenga una plataforma, más se beneficiarán todos los usuarios. Y la generación de datos juega un papel autorreforzante: más datos mejoran el servicio, lo que atrae a más usuarios, lo que genera más datos. Para decirlo sin rodeos, una plataforma digital es grande o está muerta.

Como han señalado varios informes recientes (incluido uno al que contribuí), la economía digital plantea un problema para la política de competencia. La competencia es vital para impulsar la productividad y el crecimiento a largo plazo, ya que expulsa a los productores ineficientes y estimula la innovación. Sin embargo, ¿cómo puede suceder esto cuando hay jugadores tan dominantes?

Los gigantes digitales de hoy en día brindan servicios que las personas desean: un estudio reciente estimó que los consumidores valoran la búsqueda en línea solo a un nivel equivalente a aproximadamente la mitad del ingreso medio de los EE. Por lo tanto, los economistas necesitan actualizar sus herramientas. En lugar de evaluar las tendencias probables a corto plazo en mercados digitales específicos, deben ser capaces de estimar los costos potenciales a largo plazo implicados por la incapacidad de un nuevo rival con una mejor tecnología o servicio para desbancar la plataforma establecida.

Esta no es una tarea fácil, porque no existe una metodología estándar para estimar futuros inciertos, no lineales. Los economistas incluso no están de acuerdo sobre cómo medir las valoraciones estáticas de los consumidores de productos digitales gratuitos, como la búsqueda en línea y las redes sociales. Y aunque la idea de que la competencia opera dinámicamente a través de las empresas que ingresan y salen del mercado se remonta, al menos, a Joseph Schumpeter, el enfoque estándar todavía es considerar la competencia entre compañías similares que producen bienes similares en un momento dado.

Las características de la tecnología digital representan un desafío fundamental para toda la disciplina. Como señalé hace más de 20 años, la economía digital es » ingravidez » . Además, muchos productos digitales son «bienes públicos» no rivales: puede usar código de software sin impedir que otros lo hagan, mientras que solo una persona puede usar el mismo par de zapatos Y requieren un grado sustancial de confianza para tener algún valor: necesitamos experimentarlos para saber si funcionan, y la influencia social a menudo es crucial para su difusión.

Sin embargo, la economía estándar generalmente no supone ninguna de estas cosas. Los economistas se frenarán ante esta declaración, señalando con razón los modelos que se adaptan a algunas características de la economía digital. Pero el mundo mental de referencia de los economistas, particularmente su marco instintivo para pensar en cuestiones de política pública, es uno en el que la competencia es estática, las preferencias son fijas e individuales, los bienes rivales son la norma, etc.

Comenzar desde allí conduce inexorablemente a presumir el paradigma de «libre mercado». Como cualquier economista aplicado sabe, este paradigma lleva el nombre de una entidad mítica. Pero este conocimiento de alguna manera no da lugar a una presunción alternativa, digamos, que los gobiernos deberían suministrar ciertos productos.

Este instinto puede estar cambiando. Una gota de agua es la llamada de Jim O’Neill, un ex economista de Goldman Sachs que ahora dirige el Instituto Real de Asuntos Internacionales (Chatham House), para la investigación pública y la producción de nuevos antibióticos. Después de haber dirigido una revisión de la propagación de la resistencia antimicrobiana, que matará a millones de personas si no se descubren nuevos medicamentos, O’Neill está consternado por la falta de progreso realizado por las compañías farmacéuticas privadas.

El descubrimiento de drogas es una industria de la información, y la información es un bien público no rival que el sector privado, como era de esperar, está sub-suministrando. Esa conclusión no es remotamente extravagante en términos de análisis económico. Y, sin embargo, la idea de nacionalizar parte de la industria farmacéutica es descabellada desde la perspectiva del paradigma de política económica vigente.

O considere el tema de los datos, que últimamente ha ejercido una gran influencia en los formuladores de políticas. ¿Debería regularse aún más la recopilación de datos por parte de empresas digitales? ¿Se debe pagar a las personas por proporcionar datos personales? Y si un sensor en un entorno de ciudad inteligente registra que paso, ¿son mis datos también? El marco económico estándar de las elecciones individuales hechas independientemente unas de otras, sin externalidades, y el intercambio monetario para la transferencia de propiedad privada, no ofrece ayuda para responder estas preguntas.

Los investigadores económicos no son inocentes cuando se trata de decisiones políticas inadecuadas. Enseñamos economía a las personas que se adentran en el mundo de las políticas y los negocios, y nuestra investigación da forma al clima intelectual más amplio. Ahora corresponde a los académicos establecer un enfoque de referencia para la economía digital y crear un conjunto de métodos y herramientas aplicados que los legisladores, las autoridades de competencia y otros reguladores puedan usar.

La economía convencional no ha logrado mantenerse al día con el rápido ritmo de la transformación digital, y está luchando por encontrar formas prácticas de abordar el creciente poder de las empresas tecnológicas dominantes. Si la disciplina quiere seguir siendo relevante, debe repensar algunos de sus supuestos básicos.

Link: https://www.project-syndicate.org/commentary/economics-digital-markets-public-goods-regulation-by-diane-coyle-2019-06

Publicado por Santillán Guzmán Fernanda.

Reportes especiales: «¿La política empieza a influir en la Fed?»

Julio 23, 2019 Robert J. Barro.

CAMBRIDGE – Desde principios de los ochenta hasta el inicio de la crisis financiera en septiembre de 2008, la Reserva Federal de los Estados Unidos tuvo al parecer un proceso coherente para el manejo de su principal tipo de interés a corto plazo, la tasa interbancaria (tasa de fondos federales). Su política tenía tres componentes clave: que el tipo de interés nominal subiera más que la inflación; que aumentara en respuesta al fortalecimiento de la economía real; y que tendiera hacia un valor normal a largo plazo.

De modo que se podría inferir la tasa normal a partir del promedio de la tasa interbancaria a lo largo del tiempo. Entre enero de 1986 y agosto de 2008 fue 4,9%, y la inflación promedio fue 2,5% (según el deflactor de gastos de consumo personal); es decir que la tasa real promedio fue 2,4%.

La tasa real normal a largo plazo puede considerarse una propiedad emergente de la economía real. Desde el punto de vista de la inversión y del ahorro, el equilibrio económico compensa entre el beneficio de un tipo de interés real bajo y seguro (que da al inversor acceso a crédito barato) y el beneficio de una tasa real alta (que implica mayor rendimiento para el ahorrista).

En la Gran Recesión, la tasa interbancaria se hundió y llegó básicamente a cero a fines de 2008. Fue una respuesta adecuada, dada la magnitud de la crisis. Pero pocos esperaban que la tasa se mantuviera cerca de cero por tanto tiempo, hasta el final del mandato del entonces presidente de la Fed Ben Bernanke en enero de 2014, y después.

La prolongada política de tipos de interés bajos de la Fed, complementada con la flexibilización cuantitativa (FC), parece injustificada, en vista de que la economía ya se había recuperado hace mucho, al menos si se la mide por la tasa de desempleo. Sólo a fines de 2016, con la entonces presidenta de la Fed Janet Yellen, la tasa interbancaria nominal entró en una senda ascendente, que la llevó gradualmente hasta 2,4% en diciembre de 2018 bajo el sucesor de Yellen, Jerome Powell. Hasta fines de 2016, la tasa interbancaria tuvo un valor real negativo, muy inferior al valor normal a largo plazo.

Cuesta ver que la tasa nominal actual (2,4%) sea alta. Con una inflación del 1,7%, la tasa interbancaria real sólo llega al 0,7%. Y sin embargo, la política de tipos de interés “altos” de la Fed fue ferozmente criticada por Wall Street, que la tildó de errónea y causante de la debilidad del mercado accionario desde fines de 2018 hasta principios de 2019. Muchos comentaristas financieros sostuvieron que la Fed debía poner en pausa la “normalización” de la política monetaria y finalmente empezar a bajar los tipos de interés.

No es una idea absurda si el único objetivo es estimular el mercado accionario. En general, las bajas de tasas tienden a estimular los precios de las acciones, al hacer el rendimiento real de los bonos menos atractivo. Pero eso no implica que tener la tasa baja todo el tiempo sea buena política económica (como parece creer el presidente estadounidense Donald Trump).

No es ningún secreto que para Trump, el desempeño bursátil es un indicador de su propio desempeño. Pero ver a la Fed subirse al carro de la reducción de tasas fue una sorpresa. A principios de 2019, indicó que haría una pausa en las subas, y ahora está enviando señales de que aplicará una serie de recortes en el futuro cercano. Al menos yo, no entiendo cómo cuadra el súbito cambio de rumbo de la Fed con la política monetaria coherente que mantuvo desde 1984 hasta la crisis financiera.

Sin embargo, Powell trató de demostrar que la nueva política era compatible con la anterior. En primer lugar, señaló (acertadamente, en mi opinión) que la inflación se mantiene contenida. Luego sostuvo que es posible que las perspectivas económicas no sean tan buenas como hacen pensar el bajo desempleo y el sólido crecimiento reciente del PIB real. Puede que ese argumento tenga algo de razón, en vista de la guerra comercial de Trump y del empeoramiento de las perspectivas de crecimiento global. Pero aun así, de ello no se desprende que haya que bajar las tasas antes de que efectivamente aparezca la debilidad económica: no conozco ningún argumento convincente para sostener que la Fed deba “adelantarse” a una desaceleración de la economía real.

De modo que el peligro está en que la Fed se vea tentada a bajar las tasas ante la presión externa, dando por sentado que siempre podrá racionalizar esas reducciones señalando variables que parezcan augurar una desaceleración en algún momento futuro. Es elocuente que Powell no haya mencionado (al menos que yo sepa) el hecho de que la tasa interbancaria nominal y la real siguen muy por debajo de los valores normales a largo plazo. (Esta desviación es incluso más evidente en algunas otras economías avanzadas, por ejemplo Alemania y Japón.)

El deseo de volver a la normalidad todavía debería generar presión alcista sobre las tasas, como lo hizo durante el período de subas entre diciembre de 2016 y diciembre de 2018. De hecho, que Bernanke no hubiera iniciado antes el proceso de normalización dificultó las cosas innecesariamente para Yellen y Powell.

Mi opinión es que el abandono de la normalización en 2019 se debió ante todo a la intensa oposición del pasado diciembre a futuras subas de tasas, cuando las mayores objeciones vinieron, notablemente, de analistas bursátiles y de la administración Trump.

La razón de ser de la independencia de los bancos centrales es permitir una política monetaria creíble, al aislar de tales influencias a las autoridades decisorias pertinentes. Es lo que aprendimos a principios de los ochenta, cuando el presidente de la Fed Paul Volcker subió la tasa interbancaria al nivel necesario para detener la inflación. Claro que la gran diferencia es que el presidente Ronald Reagan apoyó a Volcker, mientras que Trump es el principal antagonista de Powell.

De modo que el desafío para Powell es mantener la disciplina e independencia de Volcker frente a una presión política creciente. Y por el momento no parece probable que lo logre.

Link: https://www.project-syndicate.org/commentary/trump-powell-politics-fed-by-robert-j-barro-2019-07/spanish

Publicado por Santillán Guzmán Fernanda.

Reportes especiales: «Misterios de la política monetaria.»

Julio 4, 2019

Robert J. Barro.

CAMBRIDGE – Uno de los hechos notables de la historia económica de la posguerra es la domesticación de la inflación en Estados Unidos y muchos otros países lograda desde mediados de los ochenta. Antes de eso, la tasa de inflación en Estados Unidos (según el deflactor de gastos de consumo personal) fue del 6,6% anual en promedio durante los setenta, y superó el 10% en 1979‑1980.

A principios y mediados de los setenta, los presidentes Richard Nixon y Gerald Ford intentaron contener la inflación con una desacertada combinación de controles de precios y exhortaciones, sumados a una moderada restricción monetaria. Pero entonces llegó el presidente Jimmy Carter, quien tras mantener por algún tiempo esta estrategia, en agosto de 1979 designó a Paul Volcker como presidente de la Reserva Federal de los Estados Unidos. Con Volcker, la Fed empezó poco después una política de subir el tipo de interés nominal a corto plazo a cualquier nivel que fuera necesario para bajar la inflación.

Volcker, con respaldo del presidente Ronald Reagan después de enero de 1981, se aferró a esta estrategia, pese a una intensa oposición política, y en julio de ese año la tasa de política monetaria llegó a un máximo de 22%. La política funcionó: la inflación anual se redujo marcadamente a un promedio de apenas 3,4% entre 1983 y 1989. La Fed había cumplido con creces lo que más tarde se conocería como principio de Taylor (o, más correctamente, principio de Volcker), según el cual los aumentos de la tasa de política monetaria superan a los aumentos de la tasa de inflación.

Desde entonces, el principal instrumento de política monetaria de la Fed ha sido el control del tipo de interés nominal a corto plazo, en particular la tasa de fondos federales. Cuando después de la crisis financiera de 2008 el poder de la Fed sobre el tipo de interés a corto plazo se vio disminuido (porque la tasa de fondos federales se acercó al límite inferior aproximado de cero), la Fed agregó a aquel instrumento transmisión de señales de trayectoria futura (forward guidance) y la flexibilización cuantitativa (FC).

A juzgar por la tasa de inflación en Estados Unidos durante las últimas décadas, la política monetaria de la Fed funcionó de maravillas. La inflación ha sido 1,5% anual en promedio desde 2010, ligeramente por debajo de la meta explícita de la Fed (2%), y sorprendentemente estable. Y sin embargo, la pregunta es cómo se logró. ¿Estuvo la inflación contenida porque todos pensaban que si subía muy por encima de la franja del 1,5 al 2%, la Fed respondería con una suba de tasas mucho mayor?

La influencia de variaciones de la tasa de política monetaria sobre la economía ha sido objeto de numerosas investigaciones. Por ejemplo, en un trabajo publicado en 2018 por Emi Nakamura y Jón Steinsson en el Quarterly Journal of Economics, se halló que un shock monetario contractivo (una suba imprevista de la tasa de fondos federales) aumenta los rendimientos de los títulos del Tesoro durante unos tres a cinco años, con un efecto máximo a los dos años. (Los resultados para shocks expansivos son simétricos.) La mayoría de estos efectos se aplican al tipo de interés real (ajustado por inflación), y se manifiestan tanto en los bonos indexados como en los convencionales. El efecto de un shock contractivo sobre la inflación prevista es negativo, pero de magnitud moderada, y sólo se siente después de tres a cinco años.

Si bien por convención los aumentos inesperados de la tasa de política monetaria suelen catalogarse como contractivos, Nakamura y Steinsson hallaron que la previsión de crecimiento económico para el año posterior a una suba de tasas inesperada en realidad es mayor. Es decir, un aumento de tasas pronostica más crecimiento, y una disminución, menos crecimiento. La causa probable de esta pauta es que la Fed suele aumentar las tasas cuando recibe información de que la economía está mejor de lo esperado, y las rebaja cuando sospecha que está peor de lo que se pensaba.

En el mismo trabajo también se halló que un aumento imprevisto de la tasa de política monetaria es malo para el mercado de acciones (y viceversa), lo cual se condice con ideas arraigadas de muchos comentaristas financieros, por no hablar del presidente de los Estados Unidos, Donald Trump. Los autores calculan que una rebaja imprevista de 50 puntos básicos a la tasa aumenta el índice bursátil S&P 500 más o menos un 5%, aun cuando la previsión de crecimiento del PIB real disminuya. La razón probable es la disminución del rendimiento real esperado de instrumentos financieros alternativos, como los bonos del Tesoro, en los 3 a 5 años siguientes. Este efecto tasa de descuento supera la incidencia negativa de la disminución prevista de las ganancias futuras reales sobre la cotización de las acciones.

Pero una vez más, el enigma es cómo puede la Fed mantener una inflación estable del orden del 1,5 al 2% anual usando una herramienta de política cuyo efecto al parecer es débil y opera con retardo. La suposición sería que si la inflación superara considerablemente la franja de 1,5 a 2%, la Fed iniciaría aumentos drásticos del tipo de interés nominal a corto plazo como los que aplicó Volcker a principios de los ochenta, y esos cambios tendrían un efecto negativo importante y acelerado sobre la inflación. Asimismo, si la inflación cayera muy por debajo de la meta, tal vez hasta territorio negativo, la Fed aplicaría una baja marcada de tasas (o, si ya hubiera llegado al límite inferior de cero, usaría políticas expansivas alternativas) y esto tendría un efecto positivo importante y acelerado sobre la inflación.

Según esta idea, la amenaza creíble de que la Fed responda con medidas extremas le habría evitado en la práctica repetir las políticas de la era Volcker, y desde entonces, la asociación entre variaciones de la tasa y la inflación fue moderada, pero la posibilidad hipotética de cambios drásticos fue más potente.

Francamente, esta explicación no me convence. Es como decir que la inflación está contenida porque sí. Y no hay duda de que un factor clave es que la inflación real y la esperada hayan sido simultáneamente bajas: son gemelas íntimamente relacionadas. Pero esto es sugerir que la política monetaria detrás del actual nivel bajo y estable de la inflación real y de la esperada seguirá funcionando hasta que, de pronto, ya no funcionará más.

Esto me deja con el deseo de tener una mejor comprensión de la relación entre política monetaria e inflación. También con el deseo de que los responsables de la política monetaria la comprendan mejor que yo. Habrá sin duda muchos lectores que digan que el segundo deseo ya fue concedido. Esperemos que tengan razón.

Link: https://www.project-syndicate.org/commentary/inflation-monetary-policy-mystery-by-robert-j-barro-2019-07/spanish

Publicado por Santillán Guzmán Fernanda.

El gobierno de Perú quiere que sus ciudadanos se hagan con el béisbol

Los refugiados venezolanos se encuentran entre los que llevan el deporte a Lima

Edición impresa | Las Americas

9 de mayo de 2019El | LIMA

Villa maría del triunfo , un distrito pobre en Lima, la capital de Perú, es mejor conocido por su extenso mercado mayorista de pescado. Los camiones de los 13,000 restaurantes de ceviche de la ciudad hacen cola antes de que las puertas abran a las 4 am para obtener los mejores mariscos. Pronto, sin embargo, los pescadores pueden tener que lidiar con un tipo diferente de captura. El vecindario ahora es el hogar de un estadio de béisbol, construido para los juegos panamericanos, que Perú debe organizar en julio por primera vez. El gobierno espera que los juegos generen un amor por el deporte aún oscuro en Perú: también hay lugares para tiro con arco, hockey sobre césped y waterpolo.

Los residentes parecen desconcertados. Jessica Vilca, que dirige un pequeño restaurante de ceviche al otro lado de la calle del parque de béisbol, espera con ansias los negocios adicionales, pero está desconcertada por el béisbol y los otros deportes que se jugarán en el complejo deportivo Andrés Avelino Cáceres. “Nunca supe de eso hasta que dijeron que construirían el estadio aquí. El único deporte que conocemos es el fútbol ”, dice ella. Link:https://www.economist.com/the-americas/2019/05/09/perus-government-wants-its-citizens-to-take-up-baseball

Publicado por Karol Shai Torres Díaz

Un acuerdo secreto de energía hidroeléctrica con Brasil provoca una crisis política en Paraguay

El escenario está listo para un nuevo acuerdo de represa de Itaipú entre los dos países

Edición impresa | Las Americas

22 de agosto de 2019El | SAO PAULO

When brasil soldados invadieron Paraguay en 1865, después de vendaje junto con Argentina y Uruguay, el país perdió un cuarto de su territorio y tal vez el 90% de su población masculina. Un siglo después, Brasil envió soldados a una región fronteriza en disputa y se retiró solo después de que los dos países acordaron construir la presa hidroeléctrica más grande del mundo.

La presa, llamada Itaipú, sigue siendo un tema doloroso en Paraguay. El mes pasado se supo que en mayo el actual presidente de Paraguay, Mario Abdo Benítez, había alcanzado un acuerdo secreto con Brasil, reduciendo aún más el acceso de Paraguay a energía barata. La protesta resultante ha puesto a Abdo Benítez en riesgo de juicio político. El fiasco ha subrayado la importancia de renegociar el tratado de gobierno de la presa, que expira en 2023.

Link:https://www.economist.com/the-americas/2019/08/22/a-secret-hydropower-deal-with-brazil-causes-a-political-crisis-in-paraguay

Publicado por Karol Shai Torres Díaz

AMLO confirma que no irá a la Asamblea General de la ONU; acudirá Ebrard

Anteriormente, el presidente dijo que no había decidido si asistiría a la reunión en la que se tocan temas de interés mundial como el desarrollo sostenible, la paz y la seguridad.

REDACCIÓN30/08/2019

Andrés Manuel López Obrador afirmó que estará representado en la Asamblea General por el canciller Ebrard.

Andrés Manuel López Obrador afirmó que estará representado en la Asamblea General por el canciller Ebrard.Especial CuartoscuroSuscríbete GRATIS a nuestro servicio de newsletterAl registrarte estás aceptando elaviso de privacidad y protección de datos. Puedes desuscribirte en cualquier momento.

El presidente de México, Andrés Manuel López Obrador, confirmó este viernes que no asistirá a la Asamblea General de la Organización de las Naciones Unidas (ONU) y que en su lugar irá el secretario de Relaciones Exteriores (SRE).

«No, no voy a acudir. Pero voy a estar muy bien representado por Marcelo Ebrard«, respondió.

En marzo, el presidente dijo que había sido invitado a la reunión, pero que aún no había decidido su asistencia.PUBLICIDAD

«Sí, me están invitando, pero vamos a ver. Lo más importante (de viajar al extranjero) es buscar acuerdos en beneficio del país. Es importantísima la ONU, estas reuniones, pero todavía no lo decido», explicó en el momento.

La Asamblea General es uno de los órganos principales de las Naciones Unidas, en el que participan los 193 estados miembros de la organización.

En estas reuniones se tocan temas de interés mundial como el desarrollo sostenible, la paz y la seguridad, el cambio climático, la igualdad de género, señala la ONU en su sitio oficial.

Este año, la inauguración de la Asamblea se llevará a cabo el 17 de septiembre, mientras que el 24 del mismo mes es la apertura del Debate General. Link:https://elfinanciero.com.mx/nacional/amlo-confirma-que-no-ira-a-la-asamblea-general-de-la-onu-acudira-ebrard

Publicado por Karol Shai Torres Díaz

¿Fallaron las encuestas o falló la consulta?

30/10/2018

Alejandro MorenoLas Encuestas

A diferencia de lo que las encuestas reflejaban sobre el sentir ciudadano, que era la preferencia mayoritaria por continuar la construcción en Texcoco, los resultados de la consulta sobre el nuevo aeropuerto fueron favorables a Santa Lucía, al ser la opción elegida por la mayoría de quienes participaron en el ejercicio que diseñó y organizó el equipo de transición. El margen de ventaja no fue menor: 69.9 por ciento votó por Santa Lucía y 29.1 por ciento eligió Texcoco, según los resultados que se dieron a conocer el domingo por la noche, en la sede del gobierno electo.

¿Significa esto que fallaron las encuestas? La respuesta va en dos vías: no fallaron, pero sí fallaron. Me explico. La gran mayoría de las encuestas dadas a conocer antes de la consulta reflejaban la opinión de la población adulta en su conjunto o, en algunos casos, de la población que tiene una línea telefónica en su hogar. Ambas metodologías confirmaban una tendencia favorable a Texcoco. Muy pocas encuestas, sin embargo, emplearon el fraseo de la pregunta que finalmente se utilizó en la consulta. Una excepción fue la encuesta de El Financiero, publicada el martes pasado, que mostraba que el planteamiento de la pregunta de la consulta sí arrojaba resultados favorables para Santa Lucía (53 por ciento) sobre Texcoco (46 por ciento). En este sentido, las encuestas estimaban las preferencias de una población más amplia y no se puede decir que hayan fallado. La coincidencia en resultados de hecho podría tomarse como una validación de los estudios demoscópicos entre sí.PUBLICIDAD

Placeholder block

Pero el resultado de la consulta no solamente fue producto del fraseo de la pregunta, sino de la participación que se registró, que fue alrededor del 1 por ciento de la lista nominal de electores en todo el país: poco más de un millón de participantes. De acuerdo con el sondeo que hicimos en El Financiero, al segmentar los resultados por el subconjunto de entrevistados que sabían dónde y cuándo votar, la preferencia por Santa Lucía se ampliaba, como se apuntó en la publicación del martes 23 de octubre: Santa Lucía obtenía 63 por ciento de las preferencias de esos “votantes probables”, mientras que Texcoco se llevaba el 35 por ciento, una proyección no muy lejana de lo que finalmente resultó en la consulta. La mayoría de las encuestas falló al no aportar resultados segmentados o proyecciones tomando en cuenta algo que ya se esperaba: una participación muy baja. Si la política de hacer consultas continúa, como ya se espera del nuevo gobierno, será muy importante que los encuestadores incorporen ese tipo de estimaciones en sus ejercicios demoscópicos. En esta ocasión, salvo El Financiero, nadie más lo hizo.

Eso no quiere decir que la consulta sobre el NAIM haya sido impecable. Casi lo contrario. El equipo de transición echó a andar un ejercicio de consulta improvisado, poco transparente, con varias limitaciones y con potenciales sesgos, y la defendió bajo el aura de la democracia participativa. No obstante, en la democracia, para aceptar los resultados, hay que aceptar primero las reglas de juego, lo cual no fue el caso. El equipo de transición argumenta que la ciudadanía se expresó en las mesas de votación, pero también hay que tener cuidado con ese término. Quien se expresó fue una porción de la ciudadanía que era mucho más probable de responder al llamado del Presidente electo a votar, en los lugares que el equipo de transición definió y bajo las características que éste mismo impuso. Habrá analistas que evalúen mejor la calidad de la consulta, pero, por lo pronto, y contrastando con lo que mostraban las encuestas, este primer ejercicio de democracia participativa probablemente quedará como el triunfo de la opinión minoritaria que se volvió mayoría en la consulta del Presidente electo.

Capital político

12/04/2019Actualización 12/04/2019 – 12:04

Alejandro MorenoLas Encuestas

Ya entrado el quinto mes de gobierno, vale la pena preguntarse qué piensa hacer el presidente López Obrador con su enorme capital político, reflejado en los altos índices de aprobación ciudadana que arrojan las encuestas. Una opción es tratar de conservarlo y que este vaya rindiendo frutos en las elecciones, por lo menos de aquí a 2021, cuando también se lleve a cabo la consulta, formal o informal, de revocación de mandato.

Otra opción es invertir su capital político; es decir, apostarlo, asumiendo los riesgos de la profunda transformación del país que tanto ha enfatizado en su discurso y que lleva el branding de su gobierno: la cuarta transformación o 4T. Apostar el capital político no quiere decir perderlo, sino tomar riesgos en los procesos de transformaciones sustanciales que él ha prometido y que gran parte de la ciudadanía espera.

Las estrategias de comunicación del presidente probablemente le han ayudado a mantener alta su popularidad. Las conferencias mañaneras son para ello un activo fundamental. De acuerdo con la más reciente encuesta de El Financiero, el 49 por ciento de los entrevistados dijo haber visto o escuchado las conferencias mañaneras durante el último mes, mientras que 51 por ciento no las vio ni escuchó. Entre los primeros, la aprobación a López Obrador alcanza 86 por ciento; entre los segundos, 70 por ciento. Ya sea a través de estas o en otros foros, el presidente pone agenda, fija los términos de discusión, acorrala y desarticula a sus adversarios, y se impone en la narrativa pública. A AMLO se le puede ver y escuchar todos los días.

Las mañaneras

Las mañanerasFuente: Especial

Pero la comunicación y los símbolos no van a transformar al país por sí solos, o por lo menos no de manera duradera y sustancial. Como parte de la transformación, la gente espera más seguridad, mejores condiciones económicas, menos corrupción, menos pobreza, por mencionar las principales preocupaciones que se reflejan en las encuestas, pero también salud, educación, empleos, seguridad social, servicios públicos, mejoras en la calidad de vida, y un largo etcétera.PUBLICIDAD

Por lo mostrado hasta ahora, el presidente sí ha arriesgado algo de su capital político, al proponer y accionar políticas públicas potencialmente divisivas, y para algunos controversiales, pero que él considera correctas. Ahí están la cancelación del aeropuerto, la propuesta de la Guardia Nacional, la refinería, el tren maya y el retiro de apoyos a las estancias infantiles, como botón de muestra. También están los nombramientos de colaboradores o miembros de distintos organismos públicos e instituciones que han sido objeto de cuestionamiento, pero que él ve como idóneos.

El presidente también ha optado por evitar riesgos en algunas circunstancias: ahí está su cautela ante el presidente Trump, aun y cuando como presidenciable asumió un papel de protector en el mensaje que dio luego del sorpresivo triunfo electoral del magnate en 2016.

El presidente y su equipo también evitan la exposición en foros abiertos en plazas potencialmente hostiles. Es probable que la rechifla en el estadio de beisbol no la esperaban, pero las chispas de presentarse a conmemorar el 100 aniversario luctuoso de Emiliano Zapata en Chinameca sí eran esperables, por lo cual optaron mejor ir a Cuernavaca. Sin duda, el lugar ideal para esta importante conmemoración centenaria era la exhacienda de Chinameca, donde asesinaron al Caudillo del Sur, pero, según reportó la revista Proceso, la plaza estuvo prácticamente tomada por gente de San Salvador Atenco, por el Congreso Nacional Indígena, por el EZLN y, según otras fuentes, también por opositores a la termoeléctrica de Huexca. Todo un coctel antigobierno.

Al no ir a Chinameca, el presidente quizás se evitó un fuerte abucheo público con su respectivo eco en redes sociales. Pero su ausencia deja un mensaje a una población cuyo ADN zapatista es desconfiar de los políticos y gobernantes desde que se sintiera traicionada por Madero. Habrá que seguir viendo con atención cómo maneja el presidente su capital político en su intento por transformar al país.

Link: https://www.elfinanciero.com.mx/opinion/alejandro-moreno/capital-politico

Publicado por Karol Shai Torres Díaz

Diseña un sitio como este con WordPress.com
Comenzar