Ir al contenido principal

[DATA SCIENCE] [R PROGRAMMING] [DATA VISUALIZATION] Explorando Técnicas de Análisis y Visualización de Datos en R

 

Introducción

En el análisis de datos, la correcta partición y visualización de los datasets es crucial para obtener conclusiones precisas y valiosas. En este artículo, exploraremos diversas técnicas en R para particionar datasets, crear histogramas, scatterplots, boxplots, y ajustar curvas de regresión y suavizado.

1. Partición de Datasets

La partición de datasets es una etapa fundamental en el proceso de machine learning. Permite dividir los datos en conjuntos de entrenamiento, validación y prueba para asegurar que nuestros modelos se entrenen y evalúen adecuadamente.

Función para Particionar Datasets


# Función para automatizar la partición de datasets
partition_data <- function(data, target_column, train_ratio = 0.7, validate_ratio = NULL, seed = 123) {
  # Establecer la semilla para reproducibilidad
  set.seed(seed)
  
  # Crear partición de entrenamiento
  training_ids <- createDataPartition(data[[target_column]], p = train_ratio, list = FALSE)
  data_training <- data[training_ids, ]
  temp <- data[-training_ids, ]

  # Inicializar variables para validación y prueba
  data_validation <- NULL
  data_testing <- NULL
  
  # Si se especifica un ratio de validación
  if (!is.null(validate_ratio)) {
    validation_ids <- createDataPartition(temp[[target_column]], p = validate_ratio / (1 - train_ratio), list = FALSE)
    data_validation <- temp[validation_ids, ]
    data_testing <- temp[-validation_ids, ]
  } else {
    # Si no se especifica ratio de validación, dividir el resto en validación y prueba a partes iguales
    validation_ids <- createDataPartition(temp[[target_column]], p = 0.5, list = FALSE)
    data_validation <- temp[validation_ids, ]
    data_testing <- temp[-validation_ids, ]
  }
  
  # Devolver las particiones
  list(training = data_training, validation = data_validation, testing = data_testing)
}

# Ejemplo de uso
data <- read.csv("../data/tema2/BostonHousing.csv")
partitions <- partition_data(data, target_column = "MEDV", train_ratio = 0.7, validate_ratio = 0.15)
data_training <- partitions$training
data_validation <- partitions$validation
data_testing <- partitions$testing


2. Visualización de Datos

2.1 Histograma con Curva de Densidad

Los histogramas son útiles para visualizar la distribución de una variable. Podemos superponer una curva de densidad para comprender mejor la distribución.


# Crear el histograma de la variable 'mpg'

hist(auto$mpg, 

     breaks = 16,

     probability = TRUE, 

     main = "Histograma y Densidad de MPG", 

     xlab = "Millas por Galón (MPG)", 

     col = "lightblue", 

     border = "black")


# Añadir la curva de densidad

lines(density(auto$mpg), 

      col = "red", 

      lwd = 2)




2.2 Scatterplots y Ajuste de Curvas

Los scatterplots ayudan a visualizar relaciones entre dos variables. Podemos añadir diferentes tipos de ajustes de curvas para identificar patrones.

Scatterplot con Recta de Regresión


# Crear scatterplot de 'mpg' vs 'horsepower'

plot(auto$horsepower, auto$mpg, 

     main = "Scatterplot de MPG vs Horsepower con Recta de Regresión", 

     xlab = "Potencia del Motor (Horsepower)", 

     ylab = "Millas por Galón (MPG)", 

     pch = 19, 

     col = "blue")


# Ajustar el modelo lineal

model <- lm(mpg ~ horsepower, data = auto)


# Añadir la recta de regresión

abline(model, col = "red", lwd = 2)


Scatterplot con Loess Smoothing


# Crear scatterplot de 'mpg' vs 'horsepower'

plot(auto$horsepower, auto$mpg, 

     main = "Scatterplot de MPG vs Horsepower con Loess Smoothing", 

     xlab = "Potencia del Motor (Horsepower)", 

     ylab = "Millas por Galón (MPG)", 

     pch = 19, 

     col = "blue")


# Añadir la curva Loess

loess_fit <- loess(mpg ~ horsepower, data = auto)

lines(auto$horsepower, predict(loess_fit), col = "red", lwd = 2)



3. Análisis Avanzado de Datos

3.1 Boxplots

Los boxplots son útiles para visualizar la distribución de una variable y detectar outliers. Podemos crear boxplots para diferentes variables y compararlas.

Boxplot para Todas las Variables Numéricas


# Seleccionar solo las variables numéricas

numeric_vars <- auto[, sapply(auto, is.numeric)]


# Crear un layout para múltiples gráficos

par(mfrow = c(ceiling(ncol(numeric_vars)/2), 2))


# Generar boxplots para cada variable numérica

for (var in names(numeric_vars)) {

  boxplot(numeric_vars[[var]], 

          main = paste("Boxplot de", var), 

          ylab = var, 

          col = "lightblue", 

          border = "darkblue")

}


# Resetear layout

par(mfrow = c(1, 1))


Tesis: Selección de Técnicas de Ajuste de Curvas

La elección de la técnica de ajuste de curvas más adecuada depende del contexto y de la naturaleza de los datos. Aquí algunas consideraciones para elegir la mejor técnica:

Regresión Lineal:

  • Ventajas: Simple y fácil de interpretar.

  • Desventajas: No captura relaciones no lineales.

Loess Smoothing:

  • Ventajas: Captura tendencias locales, útil para datos con patrones no lineales.

  • Desventajas: Puede ser computacionalmente costoso para grandes datasets.

Smoothing Splines:

  • Ventajas: Flexibles y pueden modelar relaciones complejas.

  • Desventajas: Pueden sobreajustarse a datos ruidosos.

Modelos Aditivos Generalizados (GAM):

  • Ventajas: Combinan la flexibilidad de los splines con la capacidad de modelar relaciones complejas.

  • Desventajas: Pueden ser difíciles de interpretar y requieren más tiempo de cómputo.

Conclusión

Elegir la técnica de ajuste de curvas adecuada es crucial para la precisión y la interpretabilidad del modelo. Para datos lineales simples, la regresión lineal puede ser suficiente. Para datos más complejos, técnicas como Loess, Smoothing Splines o GAMs pueden proporcionar una mejor representación de los datos.


Comentarios

Entradas populares de este blog

[DATA SCIENCE] Guion de formación en matemáticas y R sobre matrices de confusión, diagramas de mosaico, análisis de componentes principales y diagramas ROC.

Guion de Formación en Matemáticas y R Guion de Formación en Matemáticas y R Este guion está diseñado para aprender y consolidar conocimientos sobre matrices de confusión, diagramas de mosaico, análisis de componentes principales (PCA) y diagramas ROC utilizando la plataforma R. 1. Matrices de Confusión Teoría Matemática: Definición: Una matriz de confusión evalúa el rendimiento de un modelo de clasificación. Consiste en una tabla que compara las predicciones del modelo con los valores reales. Componentes: Verdaderos Positivos (TP) Falsos Positivos (FP) Verdaderos Negativos (TN) Falsos Negativos (FN) Métricas derivadas: Precisión: Precision = TP / (TP + FP) Sensibilidad: Recall = TP / (TP + FN) Especificidad: Specificity = TN /...

[Machine Learning][Python][Clasificación] Understanding Support Vector Machines with Python

Support Vector Machines con Python Support Vector Machines con Python Support Vector Machines (SVM) son algoritmos de aprendizaje supervisado muy potentes, a menudo utilizados para problemas de clasificación. Este artículo demuestra cómo utilizar SVM en Python con la biblioteca scikit-learn y proporciona una explicación de la teoría subyacente. 1. Implementación en Python Código en Python: import numpy as np # Biblioteca para trabajar con arreglos y operaciones matemáticas import matplotlib.pyplot as plt # Biblioteca para crear gráficos y visualizaciones from sklearn import datasets # Módulo para cargar y manejar conjuntos de datos estándar from sklearn.model_selection import train_test_split # Función para dividir los datos en entrenamiento y prueba from sklearn.svm import SVC # Clase para implementar Support Vector Machines # 1. Cargar datos # Usaremos el dataset de iris, seleccionando solo dos clases para sim...