Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision |
centro:servizos:hpc [2022/05/29 12:19] – [Uso de SLURM] fernando.guillen | centro:servizos:hpc [2022/06/20 13:55] – [Uso de SLURM] fernando.guillen |
---|
| hpc-node[3-9] | Dell R740 | 2 x Intel Xeon Gold 5220R @2,2 GHz (24c) | 192 GB | - | | | hpc-node[3-9] | Dell R740 | 2 x Intel Xeon Gold 5220R @2,2 GHz (24c) | 192 GB | - | |
| hpc-fat1 | Dell R840 | 4 x Xeon Gold 6248 @ 2.50GHz (20c) | 1 TB | - | | | hpc-fat1 | Dell R840 | 4 x Xeon Gold 6248 @ 2.50GHz (20c) | 1 TB | - | |
| <del>hpc-gpu[1-2]</del>* | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | | | <del>hpc-gpu1</del>* | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | |
| | hpc-gpu2 | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | |
| hpc-gpu3 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 2x Nvidia Ampere A100 40GB | | | hpc-gpu3 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 2x Nvidia Ampere A100 40GB | |
| hpc-gpu4 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 1x Nvidia Ampere A100 80GB | | | hpc-gpu4 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 1x Nvidia Ampere A100 80GB | |
* Son ctgpgpu7 y 8. Se integrarán próximamente en cluster. | * Es ctgpgpu8. Se integrará próximamente en cluster. |
===== Conexión al sistema ===== | ===== Conexión al sistema ===== |
Para acceder al clúster, hay que solicitarlo previamente a través de [[https://citius.usc.es/uxitic/incidencias/add|formulario de incidencias]]. Los usuarios que no tengan permiso de acceso recibirán un mensaje de "contraseña incorrecta". | Para acceder al clúster, hay que solicitarlo previamente a través de [[https://citius.usc.es/uxitic/incidencias/add|formulario de incidencias]]. Los usuarios que no tengan permiso de acceso recibirán un mensaje de "contraseña incorrecta". |
# Para ver el uso actual de los recursos: (CPUS (Allocated/Idle/Other/Total)) | # Para ver el uso actual de los recursos: (CPUS (Allocated/Idle/Other/Total)) |
hpc-login2 ~]$ sinfo -N -r -O NodeList,CPUsState,Memory,FreeMem,Gres,GresUsed | hpc-login2 ~]$ sinfo -N -r -O NodeList,CPUsState,Memory,FreeMem,Gres,GresUsed |
| # Hay un alias para este comando: |
| hpc-login2 ~]$ ver_uso |
NODELIST CPUS(A/I/O/T) MEMORY FREE_MEM GRES GRES_USED | NODELIST CPUS(A/I/O/T) MEMORY FREE_MEM GRES GRES_USED |
hpc-fat1 80/0/0/80 1027273 900850 (null) gpu:0,mps:0 | hpc-fat1 80/0/0/80 1027273 900850 (null) gpu:0,mps:0 |