Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previaPróxima revisiónAmbos lados, revisión siguiente | ||
es:centro:servizos:servidores_de_computacion_gpgpu [2018/07/30 12:39] – fernando.guillen | es:centro:servizos:servidores_de_computacion_gpgpu [2020/05/08 13:53] – fernando.guillen | ||
---|---|---|---|
Línea 3: | Línea 3: | ||
===== Descripción del servicio ===== | ===== Descripción del servicio ===== | ||
- | Dos servidores | + | Servidores |
- | * '' | ||
- | * Servidor Supermicro X8DTG-D | ||
- | * 2 procesadores [[http:// | ||
- | * 10 GB de memoria RAM (5 DIMM a 1333 MHz) | ||
- | * 2 tarjetas Nvidia GF100 [Tesla S2050] | ||
- | * Algunas de las tarjetas se encuentra temporalmente en otro servidor para unas pruebas. Por lo tanto, de momento sólo hay una tarjeta disponible. | ||
- | * Sistema operativo Ubuntu 10.04 | ||
- | * CUDA versión 5.0 | ||
* '' | * '' | ||
* Servidor Dell Precision R5400 | * Servidor Dell Precision R5400 | ||
Línea 18: | Línea 10: | ||
* 8 GB de memoria RAM (4 DDR2 FB-DIMM a 667 MHz) | * 8 GB de memoria RAM (4 DDR2 FB-DIMM a 667 MHz) | ||
* 1 tarjeta Nvidia GK104 [Geforce GTX 680] | * 1 tarjeta Nvidia GK104 [Geforce GTX 680] | ||
- | * Sistema operativo Ubuntu | + | * Sistema operativo Ubuntu |
- | | + | * Slurm (//de uso obligatorio |
- | * CUDA versión 8.0 | + | * CUDA 9.2 (// |
- | * OpenBLAS | + | * Docker-ce 18.06 (//repositorio oficial de Docker//) |
- | * NVIDIA cuDNN v4 Release Candidate for CUDA 7 and later (en '' | + | * Nvidia-docker 2.0.3 (// |
- | * NVIDIA DIGITS 3.0.0 | + | * Nvidia cuDNN v7.2.1 for CUDA 9.2 |
- | * Lapack | + | * Intel Parallel Studio Professional for C++ 2015 (// |
- | * Magma 1.7.0 (compilado con OpenBLAS) | + | |
- | * Caffe git@03a84bf (cercana a 1.0 rc-2, compilado con OpenBLAS y soporte cuDNN, en ''/ | + | |
- | * Intel Parallel Studio Professional for C++ 2015 (licencia | + | |
* '' | * '' | ||
* Servidor PowerEdge R720 | * Servidor PowerEdge R720 | ||
Línea 35: | Línea 24: | ||
* Gigabyte GeForce GTX Titan 6GB (2014) | * Gigabyte GeForce GTX Titan 6GB (2014) | ||
* Nvidia Titan X Pascal 12GB (2016) | * Nvidia Titan X Pascal 12GB (2016) | ||
- | * Nvidia Titan Xp 12GB (2017) | + | |
- | * Nvidia Quadro P6000 24GB (2018) | + | * Slurm (//de uso obligatorio |
- | | + | * CUDA 9.2 (// |
- | | + | * Docker-ce 18.06 (//repositorio oficial de Docker//) |
- | * CUDA versión 8.0 | + | * Nvidia-docker 2.0.3 (// |
- | * NVIDIA cuDNN v5 for CUDA 7.5 (en '' | + | * Nvidia cuDNN v7.2.1 for CUDA 9.2 |
- | * Cudarray | + | * Intel Parallel Studio Professional for C++ 2015 (// |
- | * Magma 1.4.1 beta | + | * ROS Melodic Morenia (// |
- | * Intel Parallel Studio Professional for C++ 2015 (licencia | + | |
* '' | * '' | ||
* Servidor PowerEdge R730 | * Servidor PowerEdge R730 | ||
Línea 61: | Línea 49: | ||
* 2 tarxeta Nvidia GP102GL [Tesla P40] | * 2 tarxeta Nvidia GP102GL [Tesla P40] | ||
* Sistema operativo Ubuntu 16.04 | * Sistema operativo Ubuntu 16.04 | ||
- | * **Slurm para a xestión | + | * **Slurm para la gestión |
* ** Modules para la gestión de versiones de bibliotecas**. | * ** Modules para la gestión de versiones de bibliotecas**. | ||
* CUDA versión 9.0 | * CUDA versión 9.0 | ||
Línea 69: | Línea 57: | ||
* TensorFlow | * TensorFlow | ||
* Caffee | * Caffee | ||
+ | * '' | ||
+ | * Servidor SIE LADON 4214 | ||
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2933MHz) | ||
+ | * Nvidia Quadro P6000 24GB (2018) | ||
+ | * Sistema operativo Centos 7.7 | ||
+ | * Driver Nvidia 418.87.00 para CUDA 10.1 | ||
+ | * Docker 19.03 | ||
+ | * [[https:// | ||
+ | * '' | ||
+ | * Servidor Dell PowerEdge R740 | ||
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2667MHz) | ||
+ | * 2 x Nvidia Tesla V100S 32GB (2019) | ||
+ | * Sistema operativo Centos 8.1 | ||
+ | * **Slurm para la gestión de colas de trabajo de uso obligatorio**. | ||
+ | * ** Modules para la gestión de versiones de bibliotecas**. | ||
+ | * Driver Nvidia 440.64.00 para CUDA 10.2 | ||
+ | * Docker 19.03 | ||
+ | * [[ https:// | ||
+ | * '' | ||
+ | * Servidor Dell PowerEdge R740 | ||
+ | * 2 procesadores | ||
+ | * 192 GB de memoria RAM (12 DDR4 DIMM a 2667MHz) | ||
+ | * 2 x Nvidia Tesla V100S 32GB (2019) | ||
+ | * Sistema operativo Centos 8.1 | ||
+ | * **Slurm para la gestión de colas de trabajo de uso obligatorio** | ||
+ | * ** Modules para la gestión de versiones de bibliotecas**. | ||
+ | * Driver Nvidia 440.64.00 para CUDA 10.2 | ||
+ | * Docker 19.03 | ||
+ | * [[ https:// | ||
===== Alta en el servicio ===== | ===== Alta en el servicio ===== | ||
- | Todos los usuarios del CiTIUS pueden acceder a este servicio, | + | Aunque todos los usuarios del CiTIUS pueden acceder a este servicio, |
===== Manual de usuario ===== | ===== Manual de usuario ===== | ||
==== Conexión con los servidores ==== | ==== Conexión con los servidores ==== | ||
Para conectarse a los servidores, debes hacerlo a través de SSH. El nombre y las direcciones IP de los servidores son las siguientes: | Para conectarse a los servidores, debes hacerlo a través de SSH. El nombre y las direcciones IP de los servidores son las siguientes: | ||
- | | + | * ctgpgpu2.inv.usc.es - 172.16.242.92: |
- | | + | * ctgpgpu3.inv.usc.es - 172.16.242.93: |
- | * ctgpgpu3.inv.usc.es - 172.16.242.93: | + | |
* ctgpgpu4.inv.usc.es - 172.16.242.201: | * ctgpgpu4.inv.usc.es - 172.16.242.201: | ||
- | * ctgpgpu5.inv.usc.es - 172.16.242.201:22 | + | * ctgpgpu5.inv.usc.es - 172.16.242.202:22 |
+ | * ctgpgpu6.inv.usc.es - 172.16.242.205: | ||
+ | * ctgpgpu7.inv.usc.es - 172.16.242.207: | ||
+ | * ctgpgpu8.inv.usc.es - 172.16.242.208:22 | ||
La conexión solo está disponible desde la red del centro. Para conectarse desde otras localizaciones o desde la red de la RAI es necesario hacer uso de la [[: | La conexión solo está disponible desde la red del centro. Para conectarse desde otras localizaciones o desde la red de la RAI es necesario hacer uso de la [[: | ||
Línea 93: | Línea 113: | ||
==== Gestión de los trabajos con SLURM ==== | ==== Gestión de los trabajos con SLURM ==== | ||
- | En '' | + | En los servidores |
Para enviar un trabajo a la cola se utiliza el comando '' | Para enviar un trabajo a la cola se utiliza el comando '' |