La variable económica más determinante que no puede observarse directamente
Enfoques técnicos para estimar el producto potencial y las fluctuaciones cíclicas
Uno de los números más importantes en la formulación de política monetaria es uno que no puede observarse directamente. La brecha del producto — la diferencia entre lo que la economía produce en la actualidad y lo que podría producir de manera sostenible — impulsa los pronósticos de inflación, moldea las decisiones de los bancos centrales e influye en miles de millones de dólares en el posicionamiento del mercado. Sin embargo, los economistas discrepan habitualmente sobre su valor en 2 a 3 puntos porcentuales, y la cifra real a menudo no se conoce sino hasta años después, cuando llegan las revisiones de datos.
Consideremos las implicaciones prácticas. En 2016, ¿la economía estadounidense operaba por debajo de su capacidad con margen para crecer, o ya estaba en plena capacidad donde un estímulo adicional generaría inflación? Las estimaciones de entonces oscilaban entre −2% (holgura significativa) y +1% (ya recalentada). Esta divergencia no refleja descuido — refleja la genuina dificultad de responder preguntas como: ¿Cuántas personas están dispuestas y en condiciones de trabajar? ¿Cuán productivas podrían ser las fábricas con plena utilización? ¿A qué velocidad mejora la base de habilidades de la fuerza laboral? Ninguna de estas admite una medición precisa.
¿Por qué importa tanto esto? Porque la brecha del producto alimenta directamente la Regla de Taylor, la fórmula de referencia que los bancos centrales utilizan para calibrar las tasas de interés. Si la brecha es grande y negativa (holgura significativa), la Regla de Taylor exige tasas más bajas para estimular el crecimiento. Si la brecha es positiva (la economía está recalentada), la regla exige tasas más altas para contener la inflación. Durante el repunte inflacionario de 2021-2022, esto no era académico — algunos economistas sostenían que la Fed estaba rezagada porque la brecha del producto se había vuelto positiva, mientras que otros mantenían que aún había holgura y que la inflación resultaría transitoria. La respuesta de política dependía de cuál visión era correcta.
La brecha del producto — la desviación del producto real respecto al potencial — es el dato no observable más determinante en la formulación de política monetaria. A diferencia de la inflación o el desempleo, que admiten medición directa pese al ruido estadístico, el producto potencial existe únicamente como constructo teórico derivado de supuestos sobre tecnología, utilización de factores y empleo de equilibrio. Esto genera una incertidumbre fundamental: las estimaciones en tiempo real difieren habitualmente entre sí en 2 a 3 puntos porcentuales según la metodología, y las revisiones de datos posteriores pueden invertir el signo de las estimaciones contemporáneas de la brecha. La brecha ingresa directamente en la Regla de Taylor y sus variantes, convirtiendo el error de medición de la brecha en una fuente de primer orden de descalibración de la política.
El período 2008-2010 ilustra las implicaciones. Las estimaciones en tiempo real de la Oficina de Presupuesto del Congreso implicaban brechas del producto cercanas al −7%, sugiriendo una presión deflacionaria masiva y justificando una acomodación extraordinaria. Las revisiones posteriores, que incorporaron valoraciones actualizadas del daño estructural al potencial, redujeron esas estimaciones al rango de −4% a −5%. Esta revisión de 2-3 pp reflejó una incertidumbre genuina sobre si la crisis financiera había deteriorado permanentemente la capacidad productiva o simplemente había creado holgura cíclica. Si el potencial cayó más de lo que se creyó en ese momento, la política fue más acomodaticia de lo previsto — contribuyendo potencialmente a la inflación que se materializó años después.
Qué significa:
Número positivo = Economía 'recalentada' (riesgo de inflación)
Número negativo = Holgura económica (margen para crecer)
Cero = Economía en plena capacidad sostenible
El concepto surgió de una pregunta práctica en la década de 1960: ¿cuándo debe el gobierno estimular la economía y cuándo debe dar un paso atrás? Arthur Okun, asesor de la administración Kennedy, identificó una relación confiable entre el desempleo y el crecimiento del PIB — cuando el desempleo caía un punto porcentual, el PIB crecía alrededor de un 3% más rápido que la tendencia. Esto dio a los responsables de política una primera aproximación de cuánto margen tenía la economía para expandirse. (Esta relación, conocida como la Ley de Okun, sigue siendo un insumo central de la Regla de Taylor y de las estimaciones de la brecha del producto en esta página.)
La década de 1970 rompió con ese marco. El desempleo y la inflación aumentaron simultáneamente — un resultado incompatible con los modelos simples de brecha del producto. Los economistas se vieron obligados a reconocer que el producto potencial en sí podía desplazarse. Una serie de choques petroleros y desaceleraciones de la productividad redujeron la capacidad de la economía, pero los responsables de política que se apoyaban en estimaciones de potencial desactualizadas continuaron estimulando, generando inflación en lugar de crecimiento.
La estimación moderna de la brecha del producto intenta evitar ese error tratando al potencial como un objetivo móvil que evoluciona con la demografía, la tecnología, la inversión en capital y los factores institucionales. Pero esto hace que la medición sea considerablemente más difícil.
En cada reunión del FOMC, el personal de la Fed presenta su estimación de la brecha del producto. Esta aparece en los materiales de Proyecciones Económicas e influye en el diagrama de puntos de las expectativas de tasas futuras. Cuando los funcionarios de la Fed hablan de ser "dependientes de los datos", parte de lo que quieren decir es que actualizan continuamente su visión de dónde se encuentra el producto potencial, basándose en la información entrante sobre productividad, participación en la fuerza laboral y utilización de la capacidad.
Los mercados prestan mucha atención. Si las ganancias de empleo se mantienen sólidas sin desencadenar inflación, los operadores revisan al alza sus estimaciones del potencial — lo que implica que la Fed tiene más margen para mantener tasas bajas. Cuando la productividad se acelera de manera inesperada (como a finales de la década de 1990 con la adopción de la tecnología de internet), las estimaciones del potencial cambian y con ellas toda la trayectoria esperada de tasas. La década de 2010 fue testigo de revisiones a la baja significativas del producto potencial tras la crisis financiera, lo que ayudó a justificar años de tasas cercanas a cero que habrían parecido imprudentes bajo supuestos anteriores.
donde $Y_t$ denota el producto real y $Y_t^*$ el producto potencial. Esta brecha entra en la Curva de Phillips Nuevo Keynesiana:
$$\pi_t - \pi^* = \alpha \cdot \text{Gap}_t + \varepsilon_t$$El coeficiente $\alpha$ (típicamente 0.1-0.5) determina la sensibilidad de la inflación a las fluctuaciones cíclicas. Los errores de medición en la brecha se propagan directamente a los pronósticos de inflación y las recomendaciones de política.
Los enfoques iniciales (décadas de 1960-1970) se apoyaban en la eliminación simple de tendencias: ajustar una tendencia lineal o cuadrática al PIB y llamar desviaciones al ciclo. La Ley de Okun proporcionó el primer ancla estructural, vinculando las brechas de desempleo con las brechas del producto a través de un coeficiente estimado. La estanflación de la década de 1970 expuso fallas fatales — los choques de oferta desplazaron el potencial, pero los métodos basados en tendencias no podían distinguir los movimientos de oferta de los de demanda.
La década de 1980 trajo los enfoques de función de producción, que descomponen el potencial en componentes de capital, trabajo y productividad total de los factores. Esto permitió incorporar información estructural (demografía, inversión, cambio tecnológico), pero introdujo nuevos desafíos de medición: la estimación de la NAIRU, la utilización del capital y la productividad tendencial implicaban cada una sus propias incertidumbres.
La práctica actual de los bancos centrales hace énfasis en los filtros multivariados (filtros de Kalman que incorporan curvas de Phillips y relaciones de Okun) y los modelos DSGE que definen el potencial como el producto de equilibrio de precios flexibles. Estos enfoques integran la teoría económica con la inferencia estadística, pero siguen siendo sensibles a la especificación del modelo. La crisis financiera de 2008 puso de relieve la incertidumbre de régimen: ¿la crisis representó un choque de demanda negativo masivo (brecha negativa grande) o una destrucción permanente de la capacidad productiva (brecha más pequeña)?
Las investigaciones recientes exploran métodos de aprendizaje automático e indicadores de alta frecuencia, aunque persisten problemas fundamentales de identificación. La brecha sigue siendo inherentemente no observable, lo que hace que la validación sea difícil y el desacuerdo inevitable.
Estimaciones actuales utilizando la metodología multivariada mejorada en comparación con el enfoque tradicional de la Ley de Okun.
Donde cada componente de la brecha se calcula como:
Brecha de Okun: $-\beta \times (u_t - u_t^*)$ con $\beta = 2.5$ corregido (EE. UU.), $2.0$ (UE), $2.3$ (RU)
Brecha de Capacidad: $(Capacity_t - 82\%) \times 0.5$
Brechas de Confianza: Desviaciones de los niveles neutros
La brecha del producto se apoya en varias relaciones económicas que vinculan variables reales y nominales:
Donde:
$\pi_t$ = Tasa de inflación actual
$\pi_t^e$ = Inflación esperada
$\alpha$ = Pendiente de la curva de Phillips (típicamente 0.1-0.5)
$\varepsilon_t$ = Choque de oferta (precios del petróleo, etc.)
Esta ecuación capta por qué los bancos centrales se enfocan en la brecha del producto. Cuando la economía opera por encima del potencial (brecha positiva), la inflación tiende a superar las expectativas. Cuando opera por debajo del potencial (brecha negativa), la inflación tiende a caer. Las estimaciones precisas de la brecha del producto son, por tanto, esenciales para calibrar las tasas de interés a través del marco de la Regla de Taylor.
Donde:
$\beta$ = Coeficiente de Okun (típicamente 2-3 para los EE. UU.)
NAIRU = Tasa de Desempleo No Aceleradora de la Inflación
Los economistas descomponen el PIB real en componentes de tendencia y cíclicos:
Donde:
$Y_t$ = PIB real efectivo
$Y_t^*$ = PIB potencial (de tendencia)
$\text{Gap}_t$ = Componente cíclico (brecha del producto en logaritmos)
El PIB real es reportado trimestralmente por la Oficina de Análisis Económico. No es perfecto — hay revisiones, ajustes estacionales y problemas de medición — pero son datos observables. El PIB potencial, en cambio, es un constructo teórico: el nivel de producción que la economía lograría si todos los recursos estuvieran empleados de manera plena y eficiente a tasas sostenibles. Cada calificador — "plena", "eficiente", "sostenible" — implica juicios de valor.
Consideremos el componente laboral. ¿Es el empleo potencial el 95% de la fuerza laboral, o el 96%? Siempre existe cierto desempleo friccional mientras las personas cambian de trabajo. ¿Pero cuánto? ¿Cambia con el tiempo a medida que mejora la tecnología de búsqueda de empleo? ¿Qué pasa con quienes abandonaron la fuerza laboral durante una recesión — deben contarse como parte del potencial o no? La respuesta importa: cada error de 0.5 puntos porcentuales en el componente de desempleo se traduce en aproximadamente 1 punto porcentual de error en la brecha del producto, lo que a su vez desplaza la recomendación de la Regla de Taylor para las tasas de interés.
El capital y la productividad plantean preguntas análogas. Durante la pandemia de COVID, algunas empresas cerraron de manera permanente. ¿Eso redujo el producto potencial, o en realidad aumentó el potencial al liberar recursos para usos más eficientes? Diferentes economistas, usando diferentes modelos y supuestos, llegaron a conclusiones divergentes. Esto no es un fracaso analítico — las preguntas son genuinamente ambiguas.
El producto potencial es un contrafáctico: el nivel de producción alcanzable bajo pleno empleo de los factores a la tecnología prevaleciente. A diferencia del producto real, que admite observación sujeta a ruido estadístico, el potencial existe únicamente dentro de marcos de modelos. Esto genera un problema de identificación: diferentes modelos, que incorporan diferentes supuestos sobre tecnología de producción, equilibrios de mercados de factores y procesos estocásticos, generan distintas series de potencial a partir de datos reales idénticos.
La estimación en tiempo real agrava el desafío. Orphanides y van Norden (2002) demuestran que las estimaciones de la brecha del producto exhiben una incertidumbre masiva en el punto final y sufren revisiones sustanciales a medida que llegan nuevos datos. Para los EE. UU., las estimaciones en tiempo real y las finales difieren frecuentemente en 2-3 puntos porcentuales, en ocasiones con signos opuestos. Esta incertidumbre inducida por las revisiones socava la política basada en estimaciones de la brecha, ya que los responsables de política operan bajo un desconocimiento generalizado de la posición cíclica de la economía.
| Método | Tipo | Requisitos de Datos | Rendimiento en Tiempo Real | Estabilidad de Revisiones | Uso por Bancos Centrales |
|---|---|---|---|---|---|
| Filtro Hodrick-Prescott | Estadístico | Solo PIB | Deficiente | Altas revisiones | Referencia/verificación cruzada |
| Función de Producción | Estructural | Trabajo, capital, productividad | Bueno | Revisiones moderadas | Método principal |
| Filtro Multivariado | Híbrido | PIB, inflación, desempleo | Bueno | Bajas revisiones | Cada vez más popular |
| Modelos DSGE | Estructural | Múltiples series macroeconómicas | Aceptable | Dependiente del modelo | Investigación/validación |
El filtro Hodrick-Prescott es el método más ampliamente utilizado para estimar la brecha del producto, a pesar de sus limitaciones bien documentadas. Es puramente mecánico: se le introducen los datos del PIB, se establece un parámetro de suavización (lambda) y se obtiene una línea de tendencia suave. La diferencia entre el PIB real y esa tendencia constituye la estimación de la brecha del producto. No se requiere teoría económica ni juicios sobre mercados laborales o productividad — solo optimización estadística.
Esta simplicidad es a la vez su fortaleza y su debilidad. En el lado positivo, el cálculo es rápido, la metodología es transparente y las comparaciones entre países o períodos son sencillas porque el método es idéntico en todas partes. La debilidad: el filtro no tiene información sobre lo que realmente está ocurriendo en la economía. Simplemente ajusta una curva suave a los datos. Si el PIB cayera un 30% debido a un desastre que destruyera la mitad del stock de capital, el filtro HP atribuiría mecánicamente la caída en parte a una brecha del producto negativa y en parte a una reducción del potencial, incluso si la destrucción fue claramente un choque de oferta temporal.
El filtro Hodrick-Prescott resuelve un problema de optimización puramente estadístico: descomponer una serie temporal en componentes de tendencia y ciclo minimizando una suma penalizada de desviaciones al cuadrado. El método no requiere estructura económica — solo la propia serie del PIB — lo que lo hace computacionalmente trivial y de amplia aplicabilidad. Su ubicuidad deriva de esta simplicidad, a pesar de las deficiencias bien documentadas que lo hacen cuestionable como estimador del producto potencial.
Hamilton (2018) ofrece una crítica contundente: el filtro HP genera dinámicas cíclicas espurias en series diferencia-estacionarias, padece un sesgo severo en el punto final (lo que hace poco fiables las estimaciones en tiempo real) y carece de interpretación económica. Ravn y Uhlig (2002) argumentan que el parámetro de suavización estándar (λ=1600 para datos trimestrales) fue elegido de forma arbitraria y puede no generalizarse entre frecuencias o países. Sin embargo, los bancos centrales siguen utilizando filtros HP como verificaciones de robustez, reconociendo sus limitaciones mientras valoran la transparencia metodológica.
Donde:
$y_t$ = Logaritmo del PIB real
$\tau_t$ = Logaritmo del PIB tendencial (potencial)
$\lambda$ = Parámetro de suavización (1600 para datos trimestrales)
La ecuación resuelve un problema de equilibrio sencillo: encontrar una línea de tendencia que cumpla dos objetivos contrapuestos. El primer término penaliza las tendencias que se desvían del PIB real — busca que la tendencia siga los datos de cerca. El segundo término penaliza las tendencias que cambian de dirección con frecuencia — busca la suavidad. El parámetro lambda (λ) determina el peso relativo de estos dos objetivos.
El valor estándar para datos trimestrales es λ = 1600, propuesto por Hodrick y Prescott basándose en las características de los ciclos económicos estadounidenses. La elección fue en cierta medida arbitraria. Establecer λ = 800 produce una tendencia más reactiva que sigue más de cerca las fluctuaciones del PIB; establecer λ = 6400 produce una tendencia muy suave que apenas responde a los movimientos de corto plazo. Distintos bancos centrales usan valores diferentes, y la elección afecta de manera crítica la estimación de la brecha del producto resultante — sin embargo, no existe una respuesta definitiva sobre cuál debería ser λ.
El primer término penaliza las desviaciones respecto a los datos reales; el segundo penaliza los cambios en la tasa de crecimiento de la tendencia (segundas diferencias). El parámetro $\lambda$ gobierna la razón de varianza entre los componentes cíclico y de tendencia. La calibración estándar usa λ=1600 para datos trimestrales, aunque esto carece de fundamento teórico.
Hodrick y Prescott (1997) seleccionaron λ=1600 para ajustarse a las frecuencias observadas del ciclo económico en los datos de EE. UU. de la posguerra, apuntando específicamente a ciclos de 6-8 años de duración. Esta estrategia de calibración carece de generalidad: el λ óptimo debería variar con el proceso generador de datos, pero los profesionales aplican 1600 mecánicamente en países y períodos de tiempo distintos. El análisis de sensibilidad revela una variación sustancial en las estimaciones de la brecha: λ∈[800,6400] genera dispersiones de 2-4 pp para ciclos económicos típicos.
Más fundamentalmente, el filtro HP exhibe un sesgo severo en el punto final. El filtro es bidireccional, usa datos futuros para estimar tendencias actuales. Al final de la muestra, solo existen datos pasados, lo que hace que el potencial estimado siga muy de cerca el producto real y subestime la brecha en tiempo real. Los estudios que comparan las estimaciones HP en tiempo real con las finales documentan sesgos sistemáticos: las estimaciones en tiempo real no capturan los puntos de inflexión y subestiman sustancialmente la volatilidad de la brecha. Esto hace que los filtros HP sean particularmente problemáticos para el análisis de política que requiere una evaluación oportuna de la brecha.
Convertir el PIB a logaritmos naturales para interpretación porcentual
Resolver el problema de optimización cuadrática mediante álgebra matricial
La brecha del producto es la diferencia entre el PIB real y la tendencia
λ = 1600
Mayor λ → Tendencia más suave
Menor λ → Más reactiva a los datos
Este método construye el PIB potencial desde sus bases usando la teoría de la producción. Modela la capacidad de oferta de la economía en función de los insumos disponibles — trabajo, capital y progreso tecnológico.
Donde:
$Y_t^*$ = Producto potencial
$A_t^*$ = Productividad total de los factores de tendencia
$K_t^*$ = Stock de capital potencial
$L_t^*$ = Insumo laboral potencial
$\alpha$ = Participación del capital en el ingreso (≈0.33)
Utiliza proyecciones demográficas, NAIRU estimada y horas trabajadas tendenciales
Método de inventario perpetuo con tasa de depreciación δ e inversión tendencial
Frecuentemente estimada usando el filtro HP o modelos estructurales de series de tiempo
Los filtros multivariados combinan la simplicidad de los filtros estadísticos con las relaciones económicas. Utilizan múltiples variables económicas simultáneamente para obtener estimaciones más robustas que están menos sujetas a revisiones.
Donde:
$y_t$ = Logaritmo del PIB real
$\pi_t$ = Tasa de inflación
$u_t$ = Tasa de desempleo
Los asteriscos (*) denotan los componentes de tendencia
En lugar de examinar los datos del PIB en forma aislada, los filtros multivariados explotan las relaciones económicas conocidas. La caída del desempleo suele señalar una brecha del producto positiva; el aumento de la inflación sugiere que la economía podría estar recalentándose. Al incorporar toda esta información simultáneamente — junto con las relaciones de la curva de Phillips y la Ley de Okun que también sustentan la Regla de Taylor — el método produce estimaciones menos propensas a revisiones y más fiables en tiempo real.
La brecha del producto sigue un proceso AR(1), el potencial sigue una caminata aleatoria con deriva
La curva de Phillips y la Ley de Okun vinculan las variables observables con la brecha no observable
Usar el filtro de Kalman para estimar los estados no observables (brecha, potencial) dados los observables
Los modelos DSGE proporcionan el enfoque teóricamente más consistente para la estimación de la brecha del producto. Modelizan toda la economía como el resultado de equilibrio de agentes optimizadores, ofreciendo una definición natural del producto potencial como el equilibrio de precios flexibles.
Donde:
Primera ecuación: Curva IS dinámica
Segunda ecuación: Curva de Phillips Nuevo Keynesiana
$\sigma$ = Elasticidad de sustitución intertemporal
$\kappa$ = Pendiente de la curva de Phillips
En los modelos DSGE, la brecha del producto se define como la diferencia entre el producto real y el nivel que prevalecería bajo precios flexibles:
donde $y_t^{flex}$ es el nivel de producto contrafáctico de precios flexibles. Esto proporciona una medida teóricamente consistente que se relaciona directamente con el bienestar y el análisis de política.
Simple vs. Mejorado:
Impacto en la política: Las brechas del producto más precisas producen recomendaciones más apropiadas de la Regla de Taylor y una orientación de política monetaria mejor calibrada.
| Banco Central | Okun Simple (%) | Multivariado Mejorado (%) | Diferencia (pp) | Nivel de Confianza | Fuentes de Datos |
|---|---|---|---|---|---|
| 🇺🇸 Federal Reserve | -1.25 | -0.25 | +1.00 | Alta | 4 indicadores |
| 🇪🇺 European Central Bank | -1.4 | -0.8 | +0.60 | Media | 3 indicadores |
| 🇬🇧 Bank of England | -0.46 | -0.46 | 0.00 | Media | 1 indicador |
La brecha del producto es un insumo clave del marco de la Regla de Taylor. Las estimaciones multivariadas mejoradas descritas anteriormente proporcionan un insumo de brecha más preciso para el análisis de política monetaria que los cálculos simples basados en Okun.
Donde $\text{Gap}_{enhanced}$ utiliza el cálculo multivariado en lugar de las estimaciones simples de Okun. Consulte la página de metodología de la Regla de Taylor para el marco completo.