Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previaPróxima revisiónAmbos lados, revisión siguiente | ||
es:centro:servizos:servidores_de_computacion_gpgpu [2018/01/11 18:14] – [Descripción del servicio] fernando.guillen | es:centro:servizos:servidores_de_computacion_gpgpu [2021/09/30 12:27] – pilar.carou | ||
---|---|---|---|
Línea 3: | Línea 3: | ||
===== Descripción del servicio ===== | ===== Descripción del servicio ===== | ||
- | Dos servidores | + | Servidores |
- | * '' | ||
- | * Servidor Supermicro X8DTG-D | ||
- | * 2 procesadores [[http:// | ||
- | * 10 GB de memoria RAM (5 DIMM a 1333 MHz) | ||
- | * 2 tarjetas Nvidia GF100 [Tesla S2050] | ||
- | * Algunas de las tarjetas se encuentra temporalmente en otro servidor para unas pruebas. Por lo tanto, de momento sólo hay una tarjeta disponible. | ||
- | * Sistema operativo Ubuntu 10.04 | ||
- | * CUDA versión 5.0 | ||
- | * '' | ||
- | * Servidor Dell Precision R5400 | ||
- | * 2 procesadores [[http:// | ||
- | * 8 GB de memoria RAM (4 DDR2 FB-DIMM a 667 MHz) | ||
- | * 1 tarjeta Nvidia GK104 [Geforce GTX 680] | ||
- | * Sistema operativo Ubuntu 14.04 | ||
- | * **Slurm para la gestión de colas de trabajo de uso obligatorio**. | ||
- | * CUDA versión 7.5 | ||
- | * OpenBLAS | ||
- | * NVIDIA cuDNN v4 Release Candidate for CUDA 7 and later (en ''/ | ||
- | * NVIDIA DIGITS 3.0.0 | ||
- | * Lapack 3.5.0 | ||
- | * Magma 1.7.0 (compilado con OpenBLAS) | ||
- | * Caffe git@03a84bf (cercana a 1.0 rc-2, compilado con OpenBLAS y soporte cuDNN, en ''/ | ||
- | * Intel Parallel Studio Professional for C++ 2015 (licencia única, ¡avisa si vas a usarlo!) | ||
* '' | * '' | ||
* Servidor PowerEdge R720 | * Servidor PowerEdge R720 | ||
Línea 35: | Línea 12: | ||
* Gigabyte GeForce GTX Titan 6GB (2014) | * Gigabyte GeForce GTX Titan 6GB (2014) | ||
* Nvidia Titan X Pascal 12GB (2016) | * Nvidia Titan X Pascal 12GB (2016) | ||
- | | + | |
- | * Sistema operativo Ubuntu | + | * Slurm (//de uso obligatorio para la gestión de trabajos// |
- | * **Slurm para la gestión de colas de trabajo de uso obligatorio**. | + | * CUDA 10.2 (// |
- | * CUDA versión | + | * Docker-ce 18.06 (// |
- | * NVIDIA cuDNN v5 for CUDA 7.5 (en ''/ | + | * Nvidia-docker 2.0.3 (// |
- | * Cudarray | + | * Nvidia cuDNN v7.2.1 for CUDA 9.2 |
- | * Magma 1.4.1 beta | + | * Intel Parallel Studio Professional for C++ 2015 (// |
- | * Intel Parallel Studio Professional for C++ 2015 (licencia única, ¡avisa si vas a usarlo!) | + | * ROS Melodic Morenia (// |
+ | * '' | ||
+ | * Servidor PowerEdge R730 | ||
+ | * 2 procesadores | ||
+ | * 128 GB de memoria RAM (4 DDR4 DIMM a 2400MHz) | ||
+ | * 2 tarxeta Nvidia GP102GL [Tesla P40] | ||
+ | * Sistema operativo Centos 7.4 | ||
+ | * docker 17.09 y nvidia-docker 1.0.1 | ||
+ | * OpenCV 2.4.5 | ||
+ | * Dliv, Caffe, Caffe2 y pycaffe | ||
+ | * Python 3.4: cython, easydict, sonnet | ||
+ | * TensorFlow | ||
+ | * '' | ||
+ | * Servidor PowerEdge R730 | ||
+ | * 2 procesadores | ||
+ | * 128 GB de memoria RAM (4 DDR4 DIMM a 2400MHz) | ||
+ | * 2 tarxeta Nvidia GP102GL [Tesla P40] | ||
+ | | ||
+ | * **Slurm para la gestión de colas de trabajo de uso obligatorio**. | ||
+ | * ** Modules para la gestión de versiones de bibliotecas**. | ||
+ | | ||
+ | * OpenCV 2.4 y 3.4 | ||
+ | * Atlas 3.10.3 | ||
+ | * MAGMA | ||
+ | * TensorFlow | ||
+ | * Caffee | ||
+ | * '' | ||
+ | * Servidor SIE LADON 4214 | ||
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2933MHz) | ||
+ | * Nvidia Quadro P6000 24GB (2018) | ||
+ | * Nvidia Quadro RTX8000 48GB (2019) | ||
+ | * Sistema operativo Centos 7.7 | ||
+ | * Driver Nvidia 418.87.00 para CUDA 10.1 | ||
+ | * Docker 19.03 | ||
+ | * [[https:// | ||
+ | * '' | ||
+ | * Servidor Dell PowerEdge R740 | ||
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2667MHz) | ||
+ | * 2 x Nvidia Tesla V100S 32GB (2019) | ||
+ | * Sistema operativo Centos 8.1 | ||
+ | * **Slurm para la gestión de colas de trabajo de uso obligatorio**. | ||
+ | * ** Modules para la gestión de versiones de bibliotecas**. | ||
+ | * Driver Nvidia 440.64.00 para CUDA 10.2 | ||
+ | * Docker 19.03 | ||
+ | * [[ https:// | ||
+ | * '' | ||
+ | * Servidor Dell PowerEdge R740 | ||
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2667MHz) | ||
+ | * 2 x Nvidia Tesla V100S 32GB (2019) | ||
+ | * Sistema operativo Centos 8.1 | ||
+ | * **Slurm para la gestión de colas de trabajo de uso obligatorio** | ||
+ | * ** Modules para la gestión de versiones de bibliotecas**. | ||
+ | * Driver Nvidia 440.64.00 para CUDA 10.2 | ||
+ | * Docker 19.03 | ||
+ | * [[ https:// | ||
===== Alta en el servicio ===== | ===== Alta en el servicio ===== | ||
- | Todos los usuarios del CiTIUS pueden acceder a este servicio, | + | Aunque todos los usuarios del CiTIUS pueden acceder a este servicio, |
===== Manual de usuario ===== | ===== Manual de usuario ===== | ||
==== Conexión con los servidores ==== | ==== Conexión con los servidores ==== | ||
- | Para conectarse a los servidores, debes hacerlo a través de SSH por el puerto 1301. El nombre y las direcciones IP de los servidores son las siguientes: | + | Para conectarse a los servidores, debes hacerlo a través de SSH. El nombre y las direcciones IP de los servidores son las siguientes: |
- | * ctgpgpu1.inv.usc.es - 172.16.242.91 | + | |
- | * ctgpgpu2.inv.usc.es - 172.16.242.92 | + | * ctgpgpu3.inv.usc.es - 172.16.242.93:22 |
- | * ctgpgpu3.inv.usc.es - 172.16.242.93 | + | * ctgpgpu4.inv.usc.es - 172.16.242.201:22 |
+ | * ctgpgpu5.inv.usc.es - 172.16.242.202:22 | ||
+ | * ctgpgpu6.inv.usc.es - 172.16.242.205: | ||
+ | * ctgpgpu7.inv.usc.es - 172.16.242.207: | ||
+ | * ctgpgpu8.inv.usc.es - 172.16.242.208: | ||
- | La conexión solo está disponible desde la red del centro. Para conectarse desde otras localizaciones o desde la red de la RAI es necesario hacer uso de la [[: | + | La conexión solo está disponible desde la red del centro. Para conectarse desde otras localizaciones o desde la red de la RAI es necesario hacer uso de la [[es: |
==== Apagado/ | ==== Apagado/ | ||
Línea 65: | Línea 102: | ||
==== Gestión de los trabajos con SLURM ==== | ==== Gestión de los trabajos con SLURM ==== | ||
- | En '' | + | En los servidores |
Para enviar un trabajo a la cola se utiliza el comando '' | Para enviar un trabajo a la cola se utiliza el comando '' | ||
Línea 71: | Línea 108: | ||
srun programa_cuda argumentos_programa_cuda | srun programa_cuda argumentos_programa_cuda | ||
- | El proceso '' | + | El proceso '' |
Alternativamente, | Alternativamente, |