Diferenzas
Isto amosa as diferenzas entre a revisión seleccionada e a versión actual da páxina.
Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision | ||
centro:servizos:hpc [2022/06/20 13:53] – [Descripción] fernando.guillen | centro:servizos:hpc [2023/01/17 14:21] – [Software disponible] fernando.guillen | ||
---|---|---|---|
Liña 17: | Liña 17: | ||
| hpc-node[3-9] | | hpc-node[3-9] | ||
| hpc-fat1 | | hpc-fat1 | ||
- | | | + | | hpc-gpu[1-2] |
- | | hpc-gpu2 | + | |
| hpc-gpu3 | | hpc-gpu3 | ||
| hpc-gpu4 | | hpc-gpu4 | ||
- | * Es ctgpgpu8. Se integrará próximamente en cluster. | + | |
===== Conexión al sistema ===== | ===== Conexión al sistema ===== | ||
Para acceder al clúster, hay que solicitarlo previamente a través de [[https:// | Para acceder al clúster, hay que solicitarlo previamente a través de [[https:// | ||
Liña 111: | Liña 110: | ||
* Python 3.6.8 | * Python 3.6.8 | ||
* Perl 5.26.3 | * Perl 5.26.3 | ||
+ | En los nodos con GPU, además: | ||
+ | * nVidia Driver 510.47.03 | ||
+ | * CUDA 11.6 | ||
+ | * libcudnn 8.7 | ||
Para usar cualquier otro software no instalado en el sistema u otra versión del mismo hay tres opciones: | Para usar cualquier otro software no instalado en el sistema u otra versión del mismo hay tres opciones: | ||
- Usar Modules con los módulos que ya están instalados (o solicitar la instalación de un nuevo módulo si no está disponible) | - Usar Modules con los módulos que ya están instalados (o solicitar la instalación de un nuevo módulo si no está disponible) | ||
Liña 145: | Liña 147: | ||
uDocker está instalado como un módulo, así que es necesario cargarlo en el entorno: | uDocker está instalado como un módulo, así que es necesario cargarlo en el entorno: | ||
<code bash> | <code bash> | ||
- | ml uDocker | + | ml udocker |
</ | </ | ||
Liña 181: | Liña 183: | ||
# Para ver el uso actual de los recursos: (CPUS (Allocated/ | # Para ver el uso actual de los recursos: (CPUS (Allocated/ | ||
hpc-login2 ~]$ sinfo -N -r -O NodeList, | hpc-login2 ~]$ sinfo -N -r -O NodeList, | ||
+ | # Hay un alias para este comando: | ||
+ | hpc-login2 ~]$ ver_uso | ||
NODELIST | NODELIST | ||
hpc-fat1 | hpc-fat1 | ||
Liña 273: | Liña 277: | ||
== Cómo se asignan los recursos == | == Cómo se asignan los recursos == | ||
- | Por defecto el método de asignación entre nodos es la asignación en bloque ( se asignan todos los cores disponibles en un nodo antes de usar otro). El método de asignación por defecto dentro de cada nodo es la asignación cíclica | + | Por defecto el método de asignación entre nodos es la asignación en bloque ( se asignan todos los cores disponibles en un nodo antes de usar otro). El método de asignación por defecto dentro de cada nodo es la asignación cíclica |
== Calculo de la prioridad == | == Calculo de la prioridad == | ||
Liña 294: | Liña 298: | ||
== Envío de trabajos == | == Envío de trabajos == | ||
+ | - sbatch | ||
- salloc | - salloc | ||
- srun | - srun | ||
- | - sbatch | ||
- | 1. SALLOC \\ | + | |
- | Sirve para obtener de forma inmediata una asignación de recursos (nodos). En cuanto se obtiene se ejecuta el comando especificado o una shell en su defecto. | + | 1. SBATCH \\ |
- | <code bash> | + | |
- | # Obtener 5 nodos y lanzar un trabajo. | + | |
- | hpc-login2 ~]$ salloc -N5 myprogram | + | |
- | # Obtener acceso interactivo a un nodo (Pulsar Ctrl+D para terminar el acceso): | + | |
- | hpc-login2 ~]$ salloc -N1 | + | |
- | </ | + | |
- | 2. SRUN \\ | + | |
- | Sirve para lanzar un trabajo paralelo ( es preferible a usar mpirun ). Es interactivo y bloqueante. | + | |
- | <code bash> | + | |
- | # Lanzar un hostname en 2 nodos | + | |
- | hpc-login2 ~]$ srun -N2 hostname | + | |
- | hpc-node1 | + | |
- | hpc-node2 | + | |
- | </ | + | |
- | 3. SBATCH \\ | + | |
Sirve para enviar un script al sistema de colas. Es de procesamiento por lotes y no bloqueante. | Sirve para enviar un script al sistema de colas. Es de procesamiento por lotes y no bloqueante. | ||
<code bash> | <code bash> | ||
Liña 333: | Liña 322: | ||
hpc-login2 ~]$ sbatch trabajo_ejemplo.sh | hpc-login2 ~]$ sbatch trabajo_ejemplo.sh | ||
</ | </ | ||
+ | 2. SALLOC \\ | ||
+ | Sirve para obtener de forma inmediata una asignación de recursos (nodos). En cuanto se obtiene se ejecuta el comando especificado o una shell en su defecto. | ||
+ | <code bash> | ||
+ | # Obtener 5 nodos y lanzar un trabajo. | ||
+ | hpc-login2 ~]$ salloc -N5 myprogram | ||
+ | # Obtener acceso interactivo a un nodo (Pulsar Ctrl+D para terminar el acceso): | ||
+ | hpc-login2 ~]$ salloc -N1 | ||
+ | </ | ||
+ | 3. SRUN \\ | ||
+ | Sirve para lanzar un trabajo paralelo ( es preferible a usar mpirun ). Es interactivo y bloqueante. | ||
+ | <code bash> | ||
+ | # Lanzar un hostname en 2 nodos | ||
+ | hpc-login2 ~]$ srun -N2 hostname | ||
+ | hpc-node1 | ||
+ | hpc-node2 | ||
+ | </ | ||
+ | |||
==== Uso de los nodos con GPU ==== | ==== Uso de los nodos con GPU ==== |