Ir al contenido principal

[R][DATA SCIENCE][PROGRAMACIÓN] Automatiza la Partición de Datasets en R con una Sencilla Función

La partición de datasets es un paso crucial en cualquier proyecto de machine learning. Para facilitar esta tarea, he creado una función en R que permite automatizar la partición, dividiendo los datos en conjuntos de entrenamiento, validación y prueba. A continuación, te explicaré cómo funciona esta función y cómo puedes utilizarla en tus propios proyectos.

Introducción

La preparación de los datos es un paso fundamental para el éxito en machine learning. Dividir el dataset en conjuntos de entrenamiento, validación y prueba asegura que nuestros modelos se entrenen y se evalúen adecuadamente. En este post, te presentaré una función en R que simplifica este proceso.

La Función partition_data

La función partition_data permite dividir tu dataset de manera eficiente. Los parámetros que puedes especificar incluyen el nombre de la columna objetivo, el porcentaje de datos para la partición de entrenamiento, y opcionalmente, la partición para validación y prueba.

# Función para automatizar la partición de datasets
partition_data <- function(data, target_column, train_ratio = 0.7, validate_ratio = NULL, seed = 123) {
  # Establecer la semilla para reproducibilidad
  set.seed(seed)
  
  # Crear partición de entrenamiento
  training_ids <- createDataPartition(data[[target_column]], p = train_ratio, list = FALSE)
  data_training <- data[training_ids, ]
  temp <- data[-training_ids, ]
  # Inicializar variables para validación y prueba
  data_validation <- NULL
  data_testing <- NULL
  
  # Si se especifica un ratio de validación
  if (!is.null(validate_ratio)) {
    validation_ids <- createDataPartition(temp[[target_column]], p = validate_ratio / (1 - train_ratio), list = FALSE)
    data_validation <- temp[validation_ids, ]
    data_testing <- temp[-validation_ids, ]
  } else {
    # Si no se especifica ratio de validación, dividir el resto en validación y prueba a partes iguales
    validation_ids <- createDataPartition(temp[[target_column]], p = 0.5, list = FALSE)
    data_validation <- temp[validation_ids, ]
    data_testing <- temp[-validation_ids, ]
  }
  
  # Devolver las particiones
  list(training = data_training, validation = data_validation, testing = data_testing)
}


Ejemplo de Uso

Veamos cómo usar esta función con un dataset de ejemplo:


# Leer el archivo CSV
data <- read.csv("../data/tema2/BostonHousing.csv")

# Particionar los datos usando la función
partitions <- partition_data(data, target_column = "MEDV", train_ratio = 0.7, validate_ratio = 0.15)
data_training <- partitions$training
data_validation <- partitions$validation
data_testing <- partitions$testing


Conclusión

La función partition_data te ayudará a ahorrar tiempo y a mantener tus procesos de partición de datos consistentes. Con esta herramienta, puedes enfocarte más en el análisis y modelado de datos, y menos en la preparación manual de los mismos.

Comentarios

Entradas populares de este blog

[CIVILIZACION][MODELOS] La Civilización Hiper-Avanzada y la Escala Kardashev

La Civilización Hiper-Avanzada y la Escala Kardashev ¿Qué es la Escala Kardashev? La Escala Kardashev es un marco propuesto en 1964 por el astrofísico Nikolai Kardashev para clasificar civilizaciones según su capacidad de aprovechar energía: Tipo I: Aprovecha toda la energía disponible en su planeta (~10¹⁶ watts). Nosotros estamos en ~0,72 según Carl Sagan. Tipo II: Captura toda la energía de su estrella (por ejemplo, con una esfera de Dyson). ~10²⁶ watts. Tipo III: Controla la energía de toda su galaxia (~10³⁶ watts). Carl Sagan propuso una fórmula para grados intermedios: K = [log10(Potencia en watts) - 6] / 10 La humanidad (~1,74 × 10¹³ watts) = ~0,72 en esta escala. ¿Cómo se podría acelerar la transición a Tipo II o III si obviamos la ética? Si ignoramos la moral, la estrategia sería pragmática y extrema: Centralización extrema del poder: Unificación bajo un mando único global tecnocrático. Explotación total de recursos: Minería planetaria masiva, co...

[Validación Cruzada] [Machine Learning] [Evaluación de Modelos] [Ciencia de Datos] [R Programming] [Resampling] Validación Cruzada: Concepto y Técnicas Principales

Validación Cruzada: Concepto y Técnicas Principales Validación Cruzada: Concepto y Técnicas Principales La validación cruzada es un conjunto de técnicas utilizadas para evaluar la capacidad de generalización de un modelo de machine learning. Su objetivo principal es determinar cómo de bien puede el modelo desempeñarse con datos no vistos, proporcionando una evaluación más robusta y fiable en comparación con dividir los datos en un simple conjunto de entrenamiento y prueba. Principales Técnicas de Validación Cruzada 1. K-Fold Cross Validation (Validación Cruzada K-Fold) El conjunto de datos se divide en \(k\) particiones o "pliegues" de igual tamaño. El modelo se entrena \(k\) veces: en cada iteración, un pliegue diferente se utiliza como conjunto de prueba y los \(k-1\) pliegues restantes como conjunto de entrenamiento. La métrica final (por ejemplo, precisión, F1, etc.) se c...

Encontré 42 GB de modelos de IA fosilizados en mi PC: una puesta al día honesta sobre IA local, conceptos y entornos Python en 2026

Hace tiempo que no tocaba nada de IA en mi PC, y al echar un ojo descubrí varios programas que no recordaba para qué eran y, sobre todo, modelos de hace año y medio acumulando polvo en el disco. Lo que empezó como una limpieza acabó siendo una puesta al día completa: Ollama, conceptos fundamentales, mapa del ecosistema, comparativas, y un setup de Python desde cero. Lo dejo aquí ordenado por si a alguien le sirve. 1. El punto de partida: 42 GB de modelos zombi Lo primero que encontré fue Ollama corriendo en segundo plano (ese icono pequeño en la barra de tareas que llevaba meses sin tocar). Un ollama list reveló cinco modelos descargados hacía 18 meses, ocupando casi 42 GB: llama-3-8B-programming-questions — 16 GB SuperNova-Medius-Q8_0 — 15 GB uncensored_wizard_7b — 4.1 GB llama3.2 — 2 GB llama3.1 — 4.7 GB En el mundo de la IA, 18 meses son una eternidad. Han salido Llama 3.3 y 4, Qwen 2.5 y 3, DeepSeek-V3 y R1, Gemma 3 y 4, gpt-oss... cualquiera de los nu...