Ir al contenido principal

[FINANZAS] Comparativa Económica: EE.UU. 1960-70 vs Actualidad

Comparativa Económica: EE.UU. 1960-70 vs Actualidad

Comparativa Económica: EE.UU. 1960-70 vs Actualidad

Este artículo tiene como objetivo ofrecer una visión clara de los paralelismos y diferencias entre la situación económica de Estados Unidos durante el periodo previo a la ruptura del sistema de Bretton Woods (1960-1971), y la coyuntura actual en la década de 2020. A través de una tabla comparativa, se analizan variables clave como el peso de la industria, los déficits fiscales y comerciales, la política monetaria, el papel del dólar y las tensiones geopolíticas.

El propósito es ayudar al lector a comprender si la historia podría estar repitiéndose o al menos rimando, como diría Mark Twain, y cuáles podrían ser las consecuencias para los mercados, el sistema monetario internacional y las inversiones.

Tabla comparativa

Aspecto EE.UU. 1960-1971 EE.UU. Actual (2020s)
Peso de la industria en el PIB Muy alto (industria > 25% del PIB) Bajo (industria < 11% del PIB)
Dominancia tecnológica e industrial Sí, líder global en manufactura y tecnología Lidera en tecnología, pero industria desplazada a Asia
Déficit comercial Ligero o inexistente; apareciendo Muy alto y estructural (~1 billón USD anual)
Déficit en balanza de pagos Alto por gasto militar y expansión exterior Alto también por intereses de deuda y déficit fiscal
Política monetaria Expansiva, pero con anclaje al oro Extremadamente expansiva post-COVID, ahora restrictiva
Política fiscal Muy expansiva (Vietnam + "Great Society") Ultra expansiva en 2020-22; aún alto gasto
Nivel de deuda pública Moderada Muy alta (>120% del PIB)
Tipo de sistema monetario Patrón dólar-oro (Bretton Woods) Sistema fiat puro desde 1971
Confianza en la moneda En declive por sobreemisión de dólares Cuestionada, especialmente por países BRICS
Competencia internacional emergente Japón, Alemania Occidental China, India, Rusia, sudeste asiático
Factores de tensión geopolítica Vietnam, Guerra Fría, Francia desafiando Bretton Woods Ucrania, Taiwán, tensiones con Irán y Medio Oriente
Relación con el oro Convertibilidad directa: 35 USD/onza Ninguna relación directa; el oro es activo refugio
Inflación Moderada, en ascenso a finales de la década Alta en 2022, aún persistente aunque bajando

Como puede apreciarse, aunque el contexto histórico y tecnológico ha cambiado profundamente, existen patrones similares que invitan a la reflexión. Tanto entonces como ahora, el exceso de gasto público, el deterioro de la balanza externa y la desconfianza monetaria pueden generar presiones que alteren el orden económico global. Comprender la historia permite anticipar movimientos clave en los mercados y proteger mejor nuestro patrimonio.

Comentarios

Entradas populares de este blog

[DATA SCIENCE] [R PROGRAMMING] [DATA VISUALIZATION] Explorando Técnicas de Análisis y Visualización de Datos en R

  Introducción En el análisis de datos, la correcta partición y visualización de los datasets es crucial para obtener conclusiones precisas y valiosas. En este artículo, exploraremos diversas técnicas en R para particionar datasets, crear histogramas, scatterplots, boxplots, y ajustar curvas de regresión y suavizado. 1. Partición de Datasets La partición de datasets es una etapa fundamental en el proceso de machine learning. Permite dividir los datos en conjuntos de entrenamiento, validación y prueba para asegurar que nuestros modelos se entrenen y evalúen adecuadamente. Función para Particionar Datasets # Función para automatizar la partición de datasets partition_data <- function(data, target_column, train_ratio = 0.7, validate_ratio = NULL, seed = 123) {   # Establecer la semilla para reproducibilidad   set.seed(seed)      # Crear partición de entrenamiento   training_ids <- createDataPartition(data[[target_column]], p = train_ratio, list = FA...

[Machine Learning][Python][Clasificación] Understanding Support Vector Machines with Python

Support Vector Machines con Python Support Vector Machines con Python Support Vector Machines (SVM) son algoritmos de aprendizaje supervisado muy potentes, a menudo utilizados para problemas de clasificación. Este artículo demuestra cómo utilizar SVM en Python con la biblioteca scikit-learn y proporciona una explicación de la teoría subyacente. 1. Implementación en Python Código en Python: import numpy as np # Biblioteca para trabajar con arreglos y operaciones matemáticas import matplotlib.pyplot as plt # Biblioteca para crear gráficos y visualizaciones from sklearn import datasets # Módulo para cargar y manejar conjuntos de datos estándar from sklearn.model_selection import train_test_split # Función para dividir los datos en entrenamiento y prueba from sklearn.svm import SVC # Clase para implementar Support Vector Machines # 1. Cargar datos # Usaremos el dataset de iris, seleccionando solo dos clases para sim...

[Validación Cruzada] [Machine Learning] [Evaluación de Modelos] [Ciencia de Datos] [R Programming] [Resampling] Validación Cruzada: Concepto y Técnicas Principales

Validación Cruzada: Concepto y Técnicas Principales Validación Cruzada: Concepto y Técnicas Principales La validación cruzada es un conjunto de técnicas utilizadas para evaluar la capacidad de generalización de un modelo de machine learning. Su objetivo principal es determinar cómo de bien puede el modelo desempeñarse con datos no vistos, proporcionando una evaluación más robusta y fiable en comparación con dividir los datos en un simple conjunto de entrenamiento y prueba. Principales Técnicas de Validación Cruzada 1. K-Fold Cross Validation (Validación Cruzada K-Fold) El conjunto de datos se divide en \(k\) particiones o "pliegues" de igual tamaño. El modelo se entrena \(k\) veces: en cada iteración, un pliegue diferente se utiliza como conjunto de prueba y los \(k-1\) pliegues restantes como conjunto de entrenamiento. La métrica final (por ejemplo, precisión, F1, etc.) se c...