Ir al contenido principal

AI: Como preparar el entorno para trabajar con Python + Conda + Cuda (require GPU NVIDIA)

 1. Activamos el entorno Conda (base):

    conda activate base && conda init bash

2.Creamos un entorno virtual python para aislarnos de las dependencias de paquetes del entorno que tenemos instalado en el Sistema operativo. El siguiente comando lo ejecutamos tras haber ejecutado el el comanto del punto 1.

    python -m venv cuda


3.Activamos el entorno cuda

    source ./cuda/bin/activate

4.Instalamos el framework Pytorch:

pip3 install torch --index-url https://download.pytorch.org/whl/cu118

PyTorch es un popular marco de aprendizaje automático de código abierto basado en la biblioteca Torch. Se utiliza principalmente para aplicaciones como visión por computadora, procesamiento del lenguaje natural y aprendizaje profundo 123. PyTorch es preferido sobre otros marcos de aprendizaje profundo como TensorFlow y Keras ya que utiliza gráficos de cálculo dinámico y es completamente Pythonic 2.


PyTorch es una biblioteca optimizada de tensores de aprendizaje profundo basada en Python y Torch y se utiliza principalmente para aplicaciones que utilizan GPU y CPU 2. PyTorch es flexible y potente, lo que lo convierte en una opción popular para la investigación y producción de aprendizaje profundo 1. PyTorch proporciona un rico ecosistema de herramientas y bibliotecas que extienden su funcionalidad y admiten el desarrollo en visión por computadora, NLP y más 1.

5. Ejecutamos el entorno jupyter (notebook):

 jupyter notebook

Yo lo ejecuté desde mi WSL ubuntu en windows y me propone una url que puedo poner en mi navegador en windows y trabajar ya con el mismo:

ejemplo:

 http://localhost:8888/tree?token=0000000000000000000000000000000000000000


6.- Hacemos un script con bash de modo que nos automatice la preparación del entorno cada vez que reiniciemos el PC y dejamos el script en el directorio de trabajo:


  1. Abre la terminal de Ubuntu.
  2. Crea un nuevo archivo de script de Bash usando el siguiente comando:
    nano bacsj.sh
    
  3. Copia y pega los siguientes comandos en el archivo:
    #!/bin/bash
    conda activate base && conda init bash
    python -m venv cuda
    source ./cuda/bin/activate
    jupyter notebook
    
  4. Guarda y cierra el archivo presionando Ctrl + X, luego Y y finalmente Enter.
  5. Dale permiso de ejecución al archivo usando el siguiente comando:
    chmod +x bacsj.sh
    
  6. Ahora puedes ejecutar el script usando el siguiente comando:
    ./bacsj.sh
    
    Esto ejecutará los tres comandos que mencionaste en orden.


Comentarios

Entradas populares de este blog

[DATA SCIENCE] [R PROGRAMMING] [DATA VISUALIZATION] Explorando Técnicas de Análisis y Visualización de Datos en R

  Introducción En el análisis de datos, la correcta partición y visualización de los datasets es crucial para obtener conclusiones precisas y valiosas. En este artículo, exploraremos diversas técnicas en R para particionar datasets, crear histogramas, scatterplots, boxplots, y ajustar curvas de regresión y suavizado. 1. Partición de Datasets La partición de datasets es una etapa fundamental en el proceso de machine learning. Permite dividir los datos en conjuntos de entrenamiento, validación y prueba para asegurar que nuestros modelos se entrenen y evalúen adecuadamente. Función para Particionar Datasets # Función para automatizar la partición de datasets partition_data <- function(data, target_column, train_ratio = 0.7, validate_ratio = NULL, seed = 123) {   # Establecer la semilla para reproducibilidad   set.seed(seed)      # Crear partición de entrenamiento   training_ids <- createDataPartition(data[[target_column]], p = train_ratio, list = FA...

[DATA SCIENCE] Guion de formación en matemáticas y R sobre matrices de confusión, diagramas de mosaico, análisis de componentes principales y diagramas ROC.

Guion de Formación en Matemáticas y R Guion de Formación en Matemáticas y R Este guion está diseñado para aprender y consolidar conocimientos sobre matrices de confusión, diagramas de mosaico, análisis de componentes principales (PCA) y diagramas ROC utilizando la plataforma R. 1. Matrices de Confusión Teoría Matemática: Definición: Una matriz de confusión evalúa el rendimiento de un modelo de clasificación. Consiste en una tabla que compara las predicciones del modelo con los valores reales. Componentes: Verdaderos Positivos (TP) Falsos Positivos (FP) Verdaderos Negativos (TN) Falsos Negativos (FN) Métricas derivadas: Precisión: Precision = TP / (TP + FP) Sensibilidad: Recall = TP / (TP + FN) Especificidad: Specificity = TN /...

[Machine Learning][Python][Clasificación] Understanding Support Vector Machines with Python

Support Vector Machines con Python Support Vector Machines con Python Support Vector Machines (SVM) son algoritmos de aprendizaje supervisado muy potentes, a menudo utilizados para problemas de clasificación. Este artículo demuestra cómo utilizar SVM en Python con la biblioteca scikit-learn y proporciona una explicación de la teoría subyacente. 1. Implementación en Python Código en Python: import numpy as np # Biblioteca para trabajar con arreglos y operaciones matemáticas import matplotlib.pyplot as plt # Biblioteca para crear gráficos y visualizaciones from sklearn import datasets # Módulo para cargar y manejar conjuntos de datos estándar from sklearn.model_selection import train_test_split # Función para dividir los datos en entrenamiento y prueba from sklearn.svm import SVC # Clase para implementar Support Vector Machines # 1. Cargar datos # Usaremos el dataset de iris, seleccionando solo dos clases para sim...