From: "Manuel J.Castro Díaz" Los trabajos que hemos realizado en los últimos años se centran en la resolución numérica de sistemas hiperbólicos no conservativos mediante métodos de volúmenes finitos y, en particular, su aplicación a la simulación de flujos geofísicos (inundación en medio urbano y rural, propagación de tsunamis, evolución de vertidos de contaminantes en el medio marino, transporte de sedimentos ...), de flujos bifásicos (modelos de Saurel-Abgrall, Baer-Nunziato...), modelos cinéticos, etc... La principal dificultad de estos problemas, tanto desde el punto de vista teórico como numérico, es la presencia de productos no conservativos. Para este tipo de problemas, hemos desarrollado resolvedores de Riemann exactos y/o aproximados de primer orden que resuelven adecuadamente soluciones estacionarias o próximas al estado estacionario (esquemas "bien equilibrados" o "well balanced"), al igual que esquemas de alto orden y su extensión a sistemas bidimensionales. La resolución numérica de los sistemas anteriormente mencionados puede conllevar un elevado coste computacional: las simulaciones suelen llevarse a cabo en dominios computaciones muy grandes y requerir tiempos de integración prolongados. Tal es el caso por ejemplo de las simulaciones de inundación en medio rural o urbano, de mareas en cuencas marinas, etc... Desde el punto de vista computacional, los problemas a resolver se caracterizan por los siguientes aspectos: - Involucran operaciones elementales entre matrices y vectores de talla pequeña (no suelen pasar de talla 10x10). - En cada iteración en tiempo, el número de las mismas es enorme. Para un dominio computacional del orden de 40.000 volúmenes, el número de operaciones producto matriz-vector es superior a 120.000, al igual que el número de problemas espectrales a resolver . - Estas operaciones son independientes entre sí. En teoría y si la arquitectura de la máquina de cálculo lo permitiera podrían hacerse simultáneamente (vectorización). Para disminuir el coste computacional hemos empleado dos estrategias: por un lado emplear la técnica de descomposición de dominios (el dominio computacional se fracciona en subdominios de aproximadamente el mismo "tamaño computacional", que son adjudicados a cada uno de los procesadores) y por otro explotar al máximo la capacidad de cálculo vectorial de cada procesador. Esta última técnica es la que, a nuestro modo de ver, es más novedosa y puede proporcionar una reducción del coste computacional espectacular: en algunos problemas el tiempo de cálculo se ha dividido por 16. A lo anterior habría que unir que los nuevos procesadores, como por ejemplo los CELL de IBM, han aumentado considerablemente su capacidad de cálculo vectorial. Por otro lado, en los últimos años han aparecido nuevos dispositivos, como las tarjetas gráficas con GPU's, que abren nuevas perspectivas al cálculo científico intensivo gracias a sus potentes prestaciones de cálculo y alto grado de vectorización. La principal dificultad para el uso de estas arquitecturas es la falta de bibliotecas de alto nivel que permitan su uso sin necesidad de ser experto en arquitectura de computadores.