|
|
|
@ -1,4 +1,20 @@
|
|
|
|
|
# Paralelización de simulación de permeabilidad
|
|
|
|
|
# Paralelización de simulación de permeabilidad en CLuster HPC (SLURM)
|
|
|
|
|
|
|
|
|
|
## ANTES DEL PRIMER USO
|
|
|
|
|
|
|
|
|
|
Seguir los siguientes pasos del tutorial:
|
|
|
|
|
|
|
|
|
|
1. Clonar este repositorio
|
|
|
|
|
2. Entrar al entorno NIX
|
|
|
|
|
3. Generar entorno Python para la simulación
|
|
|
|
|
|
|
|
|
|
## USO HABITUAL:
|
|
|
|
|
|
|
|
|
|
Habiendo completado las instrucciones previas al primer uso:
|
|
|
|
|
|
|
|
|
|
1. Entrar al entorno NIX
|
|
|
|
|
2. Activar el entorno python
|
|
|
|
|
3. Ejecutar las siimulaciones de interés
|
|
|
|
|
|
|
|
|
|
## Clonar este repositorio
|
|
|
|
|
|
|
|
|
@ -15,18 +31,18 @@ Entrar a la carpeta del proyecto
|
|
|
|
|
cd simulacion-permeabilidad
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
## Habilitar NIX e ingresar a entorno
|
|
|
|
|
## Entrar al entorno NIX
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
enable_nix
|
|
|
|
|
nix-shell
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
Para más info ver el archivo `shell.nix`.
|
|
|
|
|
|
|
|
|
|
## Instalación de las librerías (Python 3)
|
|
|
|
|
## Generar entorno Python para la simulación
|
|
|
|
|
|
|
|
|
|
Los siguentes requisitos vienen provistos por `nix-shell`:
|
|
|
|
|
Los siguentes requisitos ya vienen provistos por `nix-shell`:
|
|
|
|
|
|
|
|
|
|
* `python3`
|
|
|
|
|
* `python3-pip`
|
|
|
|
@ -40,7 +56,9 @@ make install
|
|
|
|
|
|
|
|
|
|
El instalador genera un entorno virtual en `venv`.
|
|
|
|
|
|
|
|
|
|
Para activar el entorno virtual:
|
|
|
|
|
## Activar el entorno python
|
|
|
|
|
|
|
|
|
|
Para activar el entorno virtual (LUEGO DE HABER ACTIVADO EL ENTORNO NIX):
|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
source venv/bin/activate
|
|
|
|
@ -48,13 +66,13 @@ source venv/bin/activate
|
|
|
|
|
|
|
|
|
|
Para desactivarlo `deactivate`.
|
|
|
|
|
|
|
|
|
|
## Correr simulación/tests/performance en cluster
|
|
|
|
|
## Correr simulaciones de interés
|
|
|
|
|
|
|
|
|
|
Los siguientes comandos encolan trabajos en el cluster, que correrán tan pronto como les toque su lugar en la cola de trabajos.
|
|
|
|
|
Se puede monitorear el estado de el/los trabajos encolados con `squeue`.
|
|
|
|
|
Se puede cancelar un trabajo encolado con `scancel numero_de_trabajo`
|
|
|
|
|
|
|
|
|
|
## Correr la simulación (en SLURM)
|
|
|
|
|
### Correr la simulación (en SLURM)
|
|
|
|
|
|
|
|
|
|
Por defecto: 2 nodos, 32 tasks por nodo.
|
|
|
|
|
Para cambiarlo editar archivo `run-simulation-slurm`.
|
|
|
|
@ -67,8 +85,7 @@ Una vez en ejecución, la salida se escribe a los siguientes archivos:
|
|
|
|
|
* `simulation-nro-de-trabajo.out` la salida del trabajo.
|
|
|
|
|
* `simulation-nro-de-trabajo.err` los errores del proceso
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
## Correr los casos de prueba (en SLURM)
|
|
|
|
|
### Correr los casos de prueba (en SLURM)
|
|
|
|
|
|
|
|
|
|
Por defecto: 1 nodo, 64 cpus por nodo.
|
|
|
|
|
Para cambiarlo editar archivo `run-tests-slurm`.
|
|
|
|
@ -81,7 +98,7 @@ Una vez en ejecución, la salida se escribe a los siguientes archivos:
|
|
|
|
|
* `test-nro-de-trabajo.out` la salida del trabajo.
|
|
|
|
|
* `test-nro-de-trabajo.err` los errores del proceso
|
|
|
|
|
|
|
|
|
|
## Correr las pruebas de performance (en SLURM)
|
|
|
|
|
### Correr las pruebas de performance (en SLURM)
|
|
|
|
|
|
|
|
|
|
Por defecto: 1 nodo, 64 cpus por nodo.
|
|
|
|
|
Para cambiarlo editar archivo `run-perf-slurm`.
|
|
|
|
|