Cookie usage policy

The website of the University Carlos III of Madrid use its own cookies and third-party cookies to improve our services by analyzing their browsing habits. By continuing navigation, we understand that it accepts our cookie policy. "Usage rules"

[Close]

Centro de Computación Científica (C3)

Fotografía del Centro de Computación Cinetífica C3

Información general

El Centro de Computación Científica de la UC3M es un centro de servicios de computación y almacenamiento para grupos de I+D+i, OPIs y empresas relacionadas con la investigación y la innovación.

El C3 proporciona capacidad de cálculo, almacenamiento y soporte técnico a sus usuarios para promover y participar en la elaboración de proyectos de investigación y desarrollo tecnológico, así como para contribuir al desarrollo y fortalecimiento de la capacidad competitiva de sus usuarios.

Los computadores del C3 incluyen capacidad de cómputo y almacenamiento que exceden los recursos disponibles en sistemas habituales, siendo especialmente adecuados para las simulaciones numéricas, de biocomputación, y de inteligencia artificial, dado su volumen recursos, tanto en CPUs, como en CPUS y en capacidad de almacenamiento fiable.

Impulsado por la Universidad Carlos III de Madrid, ha recibido financiación de la Agencia Estatal de Investigación (referencia EQC2021-007184- P)  y de la Comunidad de Madrid a través de sendos programas de investigación.

Descripción de los equipos

El equipo de supercomputación disponible consiste en dos  clústers de computación que de forma conjunta tienen más de 11.500 núcleos físicos de CPU y 42 GPUs de alto rendimiento,con las siguientes especificaciones técnicas:

  • 90 nodos de cómputo con las siguientes especificaciones por nodo:
    • Placa base de doble procesador con dos CPU AMD EPYC 7713, cada uno con 64 núcleos (128 núcleos totales).
    • Memoria RAM DDR4-3200 ECC RDIMM de 1024 GB.
    • 3.5 TB de almacenamiento SSD local (NVMe PCIe 4.0) para scratch.
  • 5 nodos de GPU con las siguientes especificaciones por nodo:
    • Placa base de doble procesador con dos CPU AMD EPYC 7513, cada uno con 32 núcleos (64 núcleos totales).
    • Memoria RAM DDR4-3200 ECC RDIMM de 512 GB.
    • 7 TB de almacenamiento SSD local (NVMe PCIe 4.0) para scratch.
  • 42 GPUs NVIDIA A40 con 336 Tensor Cores, 84 RT Cores y 48 GB de memoria GDDR6 ECC.
  • Sistema de almacenamiento de alta disponibilidad equipado con:
    • Lustre FS, con 540 TB de capacidad y alta redundancia.
    • NFS con acceso DRAM, con 64 TB de capacidad.
  • Infiniband HDR de 100 Gbps para computación y datos.

Instrucciones de uso

Todos los usuarios deben registrarse en el CAI-UC3M y proporcionar un método de pago (datos de facturación o un proyecto gestionado por la UC3M para el cobro de servicios). (TARIFAS)

Cada usuario deberá presentar sus solicitudes de servicio a través del enlace a los formularios de solicitud de servicio en el sitio web de la unidad. (FORMULARIO)

Los servicios que se ofrecen en esta unidad se enumeran a continuación.

Servicios de infraestructura :

  • Servicios de computación de alto rendimiento (HPC) de pago por uso para aplicaciones que requieren CPU, GPU o computación híbrida.
  • Servicios confiables de almacenamiento de datos.
  • El coste del servicio se puede consultar la pestaña de tarifas del “ centro de Supercomputación ” de la página web del CAI (https://www.uc3m.es/cai/tarifas)

Otros servicios (a acordar con los proveedores de servicios):

  • Servicios de consultoría para usuarios sobre portabilidad o instalación de aplicaciones (a acordar con los proveedores de servicios).
  • Servicios de capacitación para el uso del sistema (a acordar con los proveedores de servicios).
  • Organización de cursos, seminarios y reuniones relativos a la innovación mediante la computación de altas prestaciones.

Manuales de usuario

ATENCIÓN: Estamos moviendo la documentación aquí: https://c3-uc3m.github.io/c3-web/

La guía del usuario del clúster C3-UC3M está diseñada para proporcionar la información mínima necesaria para un nuevo usuario de este sistema. Por lo tanto, se asume que el usuario está familiarizado con muchas de las características estándar de la supercomputación, como el sistema operativo Linux.

SLURM (Simple Linux Utility for Resource Management) es un sistema de gestión de trabajos y recursos utilizado en clústeres de cómputo de alto rendimiento (HPC). Este manual cubre los comandos básicos para enviar y gestionar trabajos en un entorno SLURM.

🔧 1. Comandos Básicos

Comando Descripción
squeue Muestra los trabajos en la cola
sbatch Envía un trabajo en modo batch
srun Ejecuta un trabajo en modo interactivo o dentro de un script
scancel Cancela un trabajo
sacct Muestra historial de trabajos (requiere configuración del sistema)
sinfo Muestra información del estado de los nodos del clúster

🖥️ 2. Envío de Trabajos en Modo Interactivo

Este modo es útil para pruebas, desarrollo o cuando necesitas trabajar directamente en un nodo de cómputo.

🔹 Ejemplo 1: Sesión interactiva simple

srun --pty bash

Esto solicita recursos por defecto y te lleva a una terminal en un nodo del clúster.

🔹 Ejemplo 2: Especificar recursos

srun --pty --nodes=1 --ntasks=4 --time=01:00:00 --mem=4G bash

Solicita:

  • 1 nodo
  • 4 tareas (núcleos)
  • 1 hora de ejecución
  • 4 GB de memoria

📄 3. Envío de Trabajos en Modo Batch

Este modo es ideal para trabajos largos o producción. Se utiliza un script que contiene las instrucciones del trabajo.

🔹 Estructura de un script batch (mi_trabajo.sh)

#!/bin/bash

#SBATCH --job-name=mi_trabajo

#SBATCH --output=salida_%j.out

#SBATCH --error=error_%j.err

#SBATCH --ntasks=4 #SBATCH --time=02:00:00

#SBATCH --mem=8G

# Carga módulos (opcional)

module load python/3.10

# Ejecuta el programa

python mi_script.py

🔹 Enviar el trabajo:

sbatch mi_trabajo.sh

🔍 4. Monitoreo de Trabajos

Ver trabajos en la cola:

squeue -u tu_usuario

Ver detalles de un trabajo:

scontrol show job <job_id>

❌ 5. Cancelar un Trabajo

scancel <job_id>

📈 6. Ver Historial de Ejecución

sacct -u tu_usuario

📝 Notas Adicionales

Todos los parámetros de SLURM (--ntasks, --mem, --time, etc.) pueden usarse tanto con srun como con sbatch.

Usa module avail y module load <nombre>  para cargar entornos de software.

  • Servicios

    Texto aquí

  • Protocolo de acceso al servicio
    • Todos los usuarios deben registrarse en el CAI-UC3M y proporcionar un método de pago (datos de facturación o un proyecto gestionado por la UC3M para el cobro de servicios). (ALTA USUARIO CAI)
    • El usuario deberá aceptar las normas y responsabilidades para utilizar el servicio.
    • Los usuarios se clasifican según sean:
      • Investigadores/usuarios de la UC3M,
      • Otras organizaciones públicas de investigación (OPI), o
      • Usuarios externos (empresas, particulares o equipos internacionales) que colaboran con los equipos de investigación de la UC3M).
      • Usuarios externos que requieren el servicio pero no colaboran con la UC3M.
    • Cada usuario deberá presentar solicitudes de servicio a través del enlace a los formularios de solicitud de servicio en el sitio web de la unidad. 
    • Las solicitudes serán evaluadas por los responsables científicos y técnicos del servicio y el director del CAI, con el asesoramiento en caso necesario de un Comité de Selección de Solicitudes.
      • Si la infraestructura está ocupada menos del 100%, todas las solicitudes serán aprobadas luego de su revisión para incentivar el uso de la Infraestructura Científica.
      • En caso de aumento de la demanda, el Comité de Selección de Solicitudes del centro priorizará el orden de aprobación de las solicitudes. Las solicitudes se evaluarán en función de su impacto en la actividad de investigación, la transferencia de tecnología o el crecimiento de la comunidad empresarial relacionada con el propósito del centro.
  • Requisitos y Normas

    Cada persona que hace uso de los recursos informáticos del C3 de la UC3M asume ciertas responsabilidades.

    • El trabajo realizado en los recursos informáticos de la UC3M C3 ( Clúster UC3M C3 ) requiere la autorización previa del Clúster UC3M C3. Los programas y datos de carácter personal son inapropiados. Los usuarios deben estar preparados para justificar que todos los programas y datos están relacionados con proyectos autorizados.
    • El usuario no debe realizar ninguna manipulación de hardware/software de los recursos informáticos del Clúster C3 de UC3M, incluyendo pero no limitado a la modificación, actualización, reemplazo o adición de componentes de hardware o software internos.
    • Cuando el trabajo realizado utilizando los recursos del Clúster C3 de la UC3M dé lugar a publicaciones, se solicita el reconocimiento del apoyo del Clúster C3 de la UC3M. y el soporte técnico proporcionado por la UC3M (Clúster C3 UC3M), y se deberá enviar una copia de cada uno al equipo de difusión del Clúster C3 UC3M. Además de estas posibles publicaciones, el usuario también deberá incluir los logos indicados en cualquier material con fines de difusión. ("Se agradece el apoyo los recursos informáticos del Clúster C3 de la UC3M cofinanciados a través de la acción EQC2021-007184- P ")
    • El usuario es responsable de la seguridad de sus programas y datos y deberá tomar las precauciones necesarias para protegerlos. En particular, las contraseñas y demás credenciales utilizadas para acceder a las cuentas del Clúster C3 de la UC3M deben protegerse y no compartirse bajo ninguna circunstancia.
    • El usuario que sospeche que la seguridad de sus sistemas, contraseñas, credenciales o datos está comprometida debe informarlo inmediatamente a los administradores del Clúster C3 de la UC3M. El usuario en cuestión será responsable de cualquier daño a los recursos del Clúster C3 de la UC3M o de cualquier daño derivado del incumplimiento de sus responsabilidades.
    • La información de rendimiento de los programas y trabajos del usuario se monitorizará y recopilará de forma para todas las ejecuciones.
    • El usuario se comprometerá a proporcionar información respecto al nivel de satisfacción y experiencia en el uso de la infraestructura y servicios ofrecidos.