CALENDARIO ACÁDEMICO 2024
1er Semestre 11 de marzo al 26 de julio
2do Semestre 29 de julio al 13 de diciembre
+591 69823471 Lic. Lilian Chuquimia
+591 77721412 Lic. Paola Canedo

Modelo Clásico y Keynesiano I
Modelo Clásico y Keynesiano II
IS-LM
Curva de Phillips, Friedman
Consumo
Inversión
Expectativas Racionales I
Expectativas Racionales II
Nuevo consenso Macroeconómico
Expectativas y 3 ecuaciones
IS-LM-IA
Laboratorio

Solow dinámico
Ramsey-Kass – Koopmans
Contabilidad de crecimiento
Crecimiento en economías abiertas
PPP, UIP
Tipo de cambio
Tipo de cambio II
Devaluaciones contractivas
Crisis cambiarias
Inestabilidad financiera, sudden stop
Abordaje empírico: modelos de alerta temprana

Déficit Fiscal y solvencia intertemporal
Eficiencia del sistema tributario y curva de Laffer
Consistencia Política Fiscal y restricción de solvencia
Estabilización monetaria Y ajuste fiscal
Independencia de Banco Central
Reglas de tasa de interés y metas de Inflación
Inflación y desempleo
Curva de Phillips Dinámica
Señoreaje e impuestos inflacionarios
Programas de Estabilización Económica
Economía Política

  • Econometría
  • Modelo clásico de regresión
  • Regresión Múltiple
  • Introducción a la evaluación de modelos econométricos
  • Introducción a la inferencia económica avanzada
  • Modelos Multiecuacionales
  • Problema de exogeneidad
  • Series de tiempo
  • Modelos ARMA-ARIMA-SARIMA
  • Heterocedasticidad condicionada ARCH
  • Observaciones Aberrantes
  • Modelos vectoriales
  • Modelos VAR- Cointegración – Exogeneidad
  • Revisión de los modelos para datos en paneles
  • Paneles dinámicos Heterogeneidad individual vs dependencia dinámica
  • Sesgo de paneles dinámicos (Nickel bias)
  • Solución de variables instrumentales
  • Modelos (Anderson – Hsiao)
  • Modelos GMM
  • Uso y Abuso de las técnicas GMM “El problema de demasiados instrumentos”
  • Estimadores de máxima verosimilitud Aplicaciones empíricas
  • El entorno y las variables: Diferentes entornos de programación Python (consola, IDE, notebooks). Sintaxis del lenguaje. Tipos de datos básicos.
  • Estructuras de control.
  • Estructuras de datos: Diccionarios, listas, tuplas, vectores, matrices y árboles.
  • Programación orientada a objetos: Concepto de objeto.
  • Métodos. Herencia.
  • Python para el análisis de datos: Archivos de entrada/salida. Cómputo de estadísticos. Regresión lineal.
  • Visualización de datos. Aplicaciones con Numpy, Pandas, SciPy y Matplotlib.
  • Testeo y Debuggeo de programas: Diseño de experimentos. Manejos de excepciones.
  • Introducción a la complejidad de algoritmos
  • Elementos de Cálculo y Algebra. Funciones. Vectores y Matrices.
  • Definición de probabilidad. Probabilidad conjunta, marginal y condicional. Leyes de la probabilidad.
  • La interpretación frecuentista y bayesiana de la probabilidad.
  • Distribuciones especiales: Binomial, Poisson, Gaussiana.
  • Estimadores, estimación de máxima verosimilitud.
  • Análisis Exploratorio de Datos
  • Programación, exploración y visualización de datos: histogramas, gráficos de caja, gráficos QQ, gráficos de dispersión. Librerías de Python.
  • Preparación de datos; imputación de valores perdidos; codificación de variables categóricas.
  • Técnicas de reducción de la dimensionalidad.
  • Análisis de componentes principales.
  • Algoritmos de clustering (aprendizaje no supervisado): K-means, K-vecinos más cercanos.
  • Introducción al Aprendizaje automático
  • Fundamentos del aprendizaje automático.
  • Entrenamiento, validación y prueba. Selección, extracción e ingeniería de características.
  • Overfitting y Cross-validation. K-folding y leave-oneout CV.
  • Modelos de regresión. Regresión lineal y regresión polinómica.
  • Modelos de regresión regularizada.
  • Modelos de clasificación. Perceptrón, regresión logística y árboles de decisión
  • Algoritmos de aprendizaje automático Support Vector Machines.
  • Equilibrio sesgo-varianza.
  • Métodos de ensamble. Bagging y stacking. Random Forest.
  • Métodos de Boosting. Métodos de árboles. Gradient Boosting
  • Redes neuronales feed-forward. Métodos de Deep Learning.
  • Entrenamiento de redes. Regularización.
  • Redes neuronales convolucionales en aprendizaje de imágenes.
  • Aprendizaje por transferencia.
  • Deep Learning y Aplicaciones
  • Autoenconders variacionales. Redes
  • Generativas Antagónicas (GANs).
  • Redes neuronales recurrentes.
  • Reinforcement Learning.
  • Procesamiento de Texto y Lenguaje Natural.

DATOS DE PANEL APLICADA

  • Modelos de regresión de componentes de error ONE WAY
  • Modelos de regresión de componentes de error TWO WAY
  • Test de hipótesis con datos de panel
  • Heterocedasticidad y correlación Serial
  • Modelos de paneles dinámicos
  • Paneles heterogéneos
  • Estimadores  Mean Group vs Pooled Mean Group
Scroll al inicio