EnglishSpanish

Socios

de la Universidad de Zaragoza promueve la interdisciplinariedad para afrontar los grandes desafíos de innovación y desarrollo. El BIFI tiene una fuerte relación con la ciencia digital y ha liderado proyectos internacionales en distintos campos, como el análisis de datos, el desarrollo de aplicaciones científicas y la portabilidad a entornos HPC.

biocomputacionfisicaydesistemascomplejos_UZ

El instituto es una referencia en

e-infraestructuras (Grid, Cloud y HPC),

participando en varios proyectos FP7 y H2020 y hospedando uno de los nodos de la rede española de Supercomputación (RES)

 

Los investigadores del BIFI diseñaron el premiado supercomputador de propósito especial JANUS. El BIFI es también una referencia en las iniciativas y proyectos de Ciencia Ciudadana, liderando la fundación Ibercivis y  coordinando el proyecto Socientize, el cual ha elaborado el libro Blanco de la Ciencia Ciudadana en Europa.

Ha sido colaborador

de múltiples proyectos Europeos

relacionados con e-infraestructuras, proveyendo tanto la infraestructura como el soporte a las comunidades científicas. Algunos de estos proyectos son EGI Engage, SCI-BUS, Global Excursion, SCC-Computing, EGI, EGEE II, EGEE III int.eu.grid, EDGeS, EDGI y DEGISCO. Además ha participando en varios proyectos de innovación como CloudSME, Fortissimo (1 y 2) o CloudFlow from the Factories of the Future (FoF) para promover el uso del HPC-Cloud entre las compañías de fabricación.

 

A nivel regional, el BIFI ha liderado las iniciativas AraGrid y PireGrid y ha participado en la creación del “Aragon Digital Innovation Hub”, junto con ITAINNOVA y el Instituto Aragonés de Fomento.

Hardware

• 2080 cores Intel architecture x86_64

• 170 Intel Xeon E5-2680v3 2.5GHz CPUs on 85 compute nodes

• 4 E5-4627v3 2.6GHz CPUs in 1 compute node

• 8 Nvidia Kepler Tesla K40 GPUs

• 2 Intel Xeon Phi 5110P coprocessors

• 7.31 TB of total RAM DDR4 2133 ECC REG

• 64 GB x standard computing node

• 2 TB in 1 FAT node

• Actual computing power of ~ 80TFLOPS (Rmax)

• InfiniBand FDR 56Gbps internal connectivity

• 10GE external connectivity

• 288 TB of storage under Luster

• Energy efficiency of 2.24 GFLOPs / W

• 3072 cores AMD architecture

• 188 AMD Opteron 6272 CPUs in 47 compute nodes

• 12 TB of total DDR3 667 RAM

• Peak computing power of 25.8 TFLOPS (Rpeak)

• Actual computing power of 20 TFLOPS (Rmax)

• Internal connectivity InfiniBand QDR 40 Gbps

• External connectivity 10 GE

• 51 TB storage

• 1800 cores (Intel Xeon E5-2670-V3)

• 20TB RAM (DDR4 performance mode) in nodes with 256GB

• 10G Base T internal connectivity

• KVM based virtualization

• Distributed storage solution based on CEPH ( 600TB raw capacity )