AI: Pasos para usar llama2 en windows usando WSL - Ubuntu
Dado que no consguía hacer funcionar llama2 en windows y en Linux siguiendo los pasos salía todo a la primera, opté por instalar ubuntu dentro de Windows y realizar ahí la instalación.
1.- Instalé ubuntu y luego lo moví de disco porque toda la instalación ocupa mucho para hacerlo en la unidad c: -
Para ello seguí los pasos que se indican en "Instalar WSL en otra unidad en Windows"
2.- Después instalé miniconda
3.- Instalar pytorch: tienes varias opciones de url, se pueden ver en https://pytorch.org/get-started/locally/ Yo elegí inicialmente la url de CPU porque en mi pc de programación no tenía nvidia. En cualquier caso esto no me funcionó así que recomiendo instalar la versión con GPU y tener una GPU de nvida para trabajar con IA. En mi casó instalé una vieja GTX1080 pero ya os adelanto que la GPU es muy limitada en desempeño para esta aplicación.
4.- Seguir los pasos que se indican en el readme de llama2 en github: https://github.com/facebookresearch/llama
5.- Crear un script de python para hacer un chat e invocarlo como indica el README del repo indicado.
Alternativa a lo anterior y más flexible es seguir el vídeo de Matthew Berman que te permite crear un servicio web en tu linux y accesible desde windows, si ambos están en la misma máquina y ahí poder cargar cualquier modelo disponible para llama en https://huggingface.co/
Comentarios
Publicar un comentario