Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision |
centro:servizos:hpc [2022/04/11 09:13] – fernando.guillen | centro:servizos:hpc [2022/07/01 12:20] – fernando.guillen |
---|
| hpc-node[3-9] | Dell R740 | 2 x Intel Xeon Gold 5220R @2,2 GHz (24c) | 192 GB | - | | | hpc-node[3-9] | Dell R740 | 2 x Intel Xeon Gold 5220R @2,2 GHz (24c) | 192 GB | - | |
| hpc-fat1 | Dell R840 | 4 x Xeon Gold 6248 @ 2.50GHz (20c) | 1 TB | - | | | hpc-fat1 | Dell R840 | 4 x Xeon Gold 6248 @ 2.50GHz (20c) | 1 TB | - | |
| <del>hpc-gpu[1-2]</del>* | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | | | <del>hpc-gpu1</del>* | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | |
| | hpc-gpu2 | Dell R740 | 2 x Intel Xeon Gold 5220 CPU @ 2.20GHz (18c) | 192 GB | 2x Nvidia Tesla V100S | |
| hpc-gpu3 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 2x Nvidia Ampere A100 40GB | | | hpc-gpu3 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 2x Nvidia Ampere A100 40GB | |
| hpc-gpu4 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 1x Nvidia Ampere A100 80GB | | | hpc-gpu4 | Dell R7525 | 2 x AMD EPYC 7543 @2,80 GHz (32c) | 256 GB | 1x Nvidia Ampere A100 80GB | |
* Son ctgpgpu7 y 8. Se integrarán próximamente en cluster. | * Es ctgpgpu8. Se integrará próximamente en cluster. |
===== Conexión al sistema ===== | ===== Conexión al sistema ===== |
Para acceder al clúster, hay que solicitarlo previamente a través de [[https://citius.usc.es/uxitic/incidencias/add|formulario de incidencias]]. Los usuarios que no tengan permiso de acceso recibirán un mensaje de "contraseñal incorrecta". | Para acceder al clúster, hay que solicitarlo previamente a través de [[https://citius.usc.es/uxitic/incidencias/add|formulario de incidencias]]. Los usuarios que no tengan permiso de acceso recibirán un mensaje de "contraseña incorrecta". |
| |
El acceso se realiza mediante una conexión SSH al nodo de login: | El acceso se realiza mediante una conexión SSH al nodo de login: |
hpc-node[1-2] 36 187645 cpu_intel (null) | hpc-node[1-2] 36 187645 cpu_intel (null) |
hpc-node[3-9] 48 187645 cpu_intel (null) | hpc-node[3-9] 48 187645 cpu_intel (null) |
| |
| # Para ver el uso actual de los recursos: (CPUS (Allocated/Idle/Other/Total)) |
| hpc-login2 ~]$ sinfo -N -r -O NodeList,CPUsState,Memory,FreeMem,Gres,GresUsed |
| # Hay un alias para este comando: |
| hpc-login2 ~]$ ver_uso |
| NODELIST CPUS(A/I/O/T) MEMORY FREE_MEM GRES GRES_USED |
| hpc-fat1 80/0/0/80 1027273 900850 (null) gpu:0,mps:0 |
| hpc-gpu3 2/62/0/64 253282 226026 gpu:A100_40:2 gpu:A100_40:2(IDX:0- |
| hpc-gpu4 1/63/0/64 253282 244994 gpu:A100_80:1(S:0) gpu:A100_80:1(IDX:0) |
| hpc-node1 36/0/0/36 187645 121401 (null) gpu:0,mps:0 |
| hpc-node2 36/0/0/36 187645 130012 (null) gpu:0,mps:0 |
| hpc-node3 36/12/0/48 187645 126739 (null) gpu:0,mps:0 |
| hpc-node4 36/12/0/48 187645 126959 (null) gpu:0,mps:0 |
| hpc-node5 36/12/0/48 187645 128572 (null) gpu:0,mps:0 |
| hpc-node6 36/12/0/48 187645 127699 (null) gpu:0,mps:0 |
| hpc-node7 36/12/0/48 187645 127002 (null) gpu:0,mps:0 |
| hpc-node8 36/12/0/48 187645 128182 (null) gpu:0,mps:0 |
| hpc-node9 36/12/0/48 187645 127312 (null) gpu:0,mps:0 |
</code> | </code> |
==== Nodos ==== | ==== Nodos ==== |
| |
== Cómo se asignan los recursos == | == Cómo se asignan los recursos == |
Por defecto el método de asignación entre nodos es la asignación en bloque ( se asignan todos los cores disponibles en un nodo antes de usar otro). El método de asignación por defecto dentro de cada nodo es la asignación cíclica (se van repartiendo por igual los cores requeridos entre los sockests disponibles en el nodo). | Por defecto el método de asignación entre nodos es la asignación en bloque ( se asignan todos los cores disponibles en un nodo antes de usar otro). El método de asignación por defecto dentro de cada nodo es la asignación cíclica (se van repartiendo por igual los cores requeridos entre los sockets disponibles en el nodo). |
| |
== Calculo de la prioridad == | == Calculo de la prioridad == |