PROPUESTA DE PROYECTOS DEL GRUPO DE COMPUTACIÓN PARALELA

Para otros proyectos de algoritmos y programación paralela dirigirse a alguno de los profesores implicados.

Documentación de algunos proyectos y tesis de máster recientes



APLICACIONES DE LA PROGRAMACIÓN PARALELA

COMPUTACIÓN HETEROGÉNEA

PROGRAMACIÓN PARALELA

EVALUACIÓN DE SISTEMAS

Resolución paralela de problemas científicos y de ingeniería

Directores: Domingo Giménez, Javier Cuenca

Alumnos: uno por aplicación

Curso: cuarto o quinto, también válido para tesis de máster

Objetivos:

Se aplicará programación paralela a la resolución eficiente de problemas científicos y de ingeniería. Cada alumno trabajaría en un problema distinto y en sistemas de memoria compartida, paso de mensajes o GPU. Una lista parcial de problemas puede ser:

- compresión de imágenes

- estadística bayesiana

- análisis de cadenas de ADN

- diseño de filtros para telecomunicaciones

- simulación de moléculas

- optimización de código de meteorología

- decodificación de señal tipo TDT

- problemas de dinámica de fluidos

- tratamiento de imágenes médicas

- metaheurísticas en problemas de optimización

...

Esquemas básicos de programación híbrida

Directores: Domingo Giménez, Javier Cuenca

Alumnos: 2

Curso: cuarto y quinto, también para tesis de máster

Objetivos:

Se estudiará algún esquema de programación híbrida (OpenMP+MPI, OpenMP+GPU, MPI+OpenMP+GPU ) con algoritmos básicos (multiplicación matriz-vector, matriz-matriz, sistemas de ecuaciones...) y se desarrollarán modelos del tiempo de ejecución para estos esquemas básicos y la metodología de trabajo para generalizar los esquemas.

Autooptimización en esquemas algorítmicos paralelos 

Directores: Domingo Giménez

Alumnos: uno por esquema

Curso: cuarto y quinto, también válido para tesis de máster

Objetivos:

Se estudiará algún esquema algorítmico paralelo (divide y vencerás, maestro-esclavo, pipeline, branch and bound...) en entornos MPI y/o OpenMP y/o GPU, y las técnicas de inclusión de autooptimización en el esquema. Se incluirán los esquemas y las técnicas de autooptimización en una aplicación web.

Mantenimiento y estudio de prestaciones de laboratorio de Computación Paralela 

Directores: Domingo Giménez, Javier Cuenca

Alumnos: 2

Curso: cuarto y quinto, también para tesis de máster

Objetivos:

Se colaborará en la instalación de equipos multicore y GPU en el laboratorio de Computación Paralela. Se instalará y estudiarán las prestaciones de software de computación y paralelismo (OpenMP, MPI, CUDA, BLAS, LAPACK, ScaLAPACK, PLASMA ...) en el sistema.

Autooptimización en esquemas metaheurísticos paralelos 

Directores: Domingo Giménez

Alumnos: uno por esquema

Curso: cuarto y quinto, también válido para tesis de máster

Objetivos:

Se estudiará alguna metaheurística paralela (genético, tabú, búsqueda dispersa...) en entornos MPI y/o OpenMP y/ o GPU, y técnicas de inclusión de autooptimización en el esquema. Se incluirán los esquemas y las técnicas de autooptimización en una aplicación web.