Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision |
centro:servizos:hpc [2022/04/11 09:13] – fernando.guillen | centro:servizos:hpc [2022/06/20 13:55] – [Uso de SLURM] fernando.guillen |
---|
| hpc-node[3-9] | Dell R740 | 2 x Intel Xeon Gold 5220R @2,2 GHz (24c) | 192 GB | - | | | hpc-node[3-9] | Dell R740 | 2 x Intel Xeon Gold 5220R @2,2 GHz (24c) | 192 GB | - | |
| hpc-fat1 | Dell R840 | 4 x Xeon Gold 6248 @ 2.50GHz (20c) | 1 TB | - | | | hpc-fat1 | Dell R840 | 4 x Xeon Gold 6248 @ 2.50GHz (20c) | 1 TB | - | |
| <del>hpc-gpu[1-2]</del>* | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | | | <del>hpc-gpu1</del>* | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | |
| | hpc-gpu2 | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | |
| hpc-gpu3 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 2x Nvidia Ampere A100 40GB | | | hpc-gpu3 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 2x Nvidia Ampere A100 40GB | |
| hpc-gpu4 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 1x Nvidia Ampere A100 80GB | | | hpc-gpu4 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 1x Nvidia Ampere A100 80GB | |
* Son ctgpgpu7 y 8. Se integrarán próximamente en cluster. | * Es ctgpgpu8. Se integrará próximamente en cluster. |
===== Conexión al sistema ===== | ===== Conexión al sistema ===== |
Para acceder al clúster, hay que solicitarlo previamente a través de [[https://citius.usc.es/uxitic/incidencias/add|formulario de incidencias]]. Los usuarios que no tengan permiso de acceso recibirán un mensaje de "contraseñal incorrecta". | Para acceder al clúster, hay que solicitarlo previamente a través de [[https://citius.usc.es/uxitic/incidencias/add|formulario de incidencias]]. Los usuarios que no tengan permiso de acceso recibirán un mensaje de "contraseña incorrecta". |
| |
El acceso se realiza mediante una conexión SSH al nodo de login: | El acceso se realiza mediante una conexión SSH al nodo de login: |
hpc-node[1-2] 36 187645 cpu_intel (null) | hpc-node[1-2] 36 187645 cpu_intel (null) |
hpc-node[3-9] 48 187645 cpu_intel (null) | hpc-node[3-9] 48 187645 cpu_intel (null) |
| |
| # Para ver el uso actual de los recursos: (CPUS (Allocated/Idle/Other/Total)) |
| hpc-login2 ~]$ sinfo -N -r -O NodeList,CPUsState,Memory,FreeMem,Gres,GresUsed |
| # Hay un alias para este comando: |
| hpc-login2 ~]$ ver_uso |
| NODELIST CPUS(A/I/O/T) MEMORY FREE_MEM GRES GRES_USED |
| hpc-fat1 80/0/0/80 1027273 900850 (null) gpu:0,mps:0 |
| hpc-gpu3 2/62/0/64 253282 226026 gpu:A100_40:2 gpu:A100_40:2(IDX:0- |
| hpc-gpu4 1/63/0/64 253282 244994 gpu:A100_80:1(S:0) gpu:A100_80:1(IDX:0) |
| hpc-node1 36/0/0/36 187645 121401 (null) gpu:0,mps:0 |
| hpc-node2 36/0/0/36 187645 130012 (null) gpu:0,mps:0 |
| hpc-node3 36/12/0/48 187645 126739 (null) gpu:0,mps:0 |
| hpc-node4 36/12/0/48 187645 126959 (null) gpu:0,mps:0 |
| hpc-node5 36/12/0/48 187645 128572 (null) gpu:0,mps:0 |
| hpc-node6 36/12/0/48 187645 127699 (null) gpu:0,mps:0 |
| hpc-node7 36/12/0/48 187645 127002 (null) gpu:0,mps:0 |
| hpc-node8 36/12/0/48 187645 128182 (null) gpu:0,mps:0 |
| hpc-node9 36/12/0/48 187645 127312 (null) gpu:0,mps:0 |
</code> | </code> |
==== Nodos ==== | ==== Nodos ==== |