• Es necesario
proyectar modelos para simular y predecir cuánto, cómo
y dónde extraer hidrocarburos, señaló Daniel
Monsiváis Velázquez, de la Facultad de Ciencias de
la UNAM
En un mundo regido por economías petrolizadas,
la recuperación de hidrocarburos es fundamental en el desarrollo
de los países productores. La explotación ineficiente
u óptima puede generar enormes pérdidas o grandes ganancias
para las naciones. En ventas, por ejemplo, México obtiene 106
mil millones de dólares al año.
Así lo señaló Daniel
Monsiváis Velázquez, profesor en la Facultad de Ciencias
de la UNAM, para quien la extracción de petróleo también
representa riesgos de seguridad ambiental. Tan sólo hace tres
años, dijo, hubo un derrame importante de petróleo en
el Golfo de México.
¿Qué hacer?, preguntó
al participar en la tercera sesión del Seminario de TADAMMC
(Tecnologías de Alto Desempeño Aplicadas a la Modelación
Matemática y Computacional), y señaló una opción:
crear modelos que predigan y describan cómo será la
extracción.
Sin embargo, dijo el especialista en ciencias
de la computación, en la explotación hay un problema;
no tanto en investigación, sino en la resolución de
ecuaciones para hacer simulación y anticipaciones sobre cuánto,
cómo y dónde extraer.
Al simular este proceso, uno impone dónde inyectar, pero abajo
puede haber fracturas y/o paredes (son sistemas complejos), y si uno
se introduce por cierto lado, quizá, en vez de obtener, reduzca
la producción.
Esos son grandes limitantes cuyo entendimiento
y solución requieren herramientas como la informática.
Precisamente, con la ponencia Aplicación de diferentes
técnicas de cómputo paralelo en la simulación
de procesos de recuperación secundaria de hidrocarburos,
basada en su tesis de maestría, Monsiváis Velázquez
participó en el Seminario de TADAMMC, organizado por el Instituto
de Geofísica de la UNAM.
Al exponer una reseña sobre cómo
se hace modelación matemática-computacional y los resultados
obtenidos al comparar las arquitecturas informáticas, se refirió
al avance en el rubro. “Ha sido enorme, principalmente, en microprocesadores.
Hoy, una máquina pequeña tiene el rendimiento de una
supercomputadora de hace 15 años”.
Asimismo, por el relativo bajo costo, actualmente
se tiene la posibilidad de hacer pequeños clústers (conjuntos
de ordenadores) para resolver problemas grandes, sin requerir una
supercomputadora de mil, dos mil o 100 mil procesadores. Además,
desde hace siete años, con el boom de las tarjetas gráficas,
éstas se pueden usar como procesadoras de cómputo numérico.
De ahí que como parte de su tesis-ponencia
se preguntara en el auditorio Tlayolotl del IG: para sistemas de mediana
escala (un clúster pequeño), ¿cuál es
la tecnología más eficiente para la simulación
de recuperación de hidrocarburos?
Con ese fin, y para responder la interrogante,
desarrolló un modelo matemático-computacional y comparó
el desempeño de varias tecnologías: una que explota
la memoria compartida, vía la librería IntelMKL; otra
la distribuida a través de la librería PETSc, y una
más llamada CUDA, que usa tarjetas gráficas.
Para la simulación de la extracción
utilizó el programa TUNA, que ahora se llama TUNAM, por haber
sido desarrollado en la Universidad.
Se trata de una biblioteca con capacidad
de abstraer los entes más característicos de un problema;
en el caso de la simulación de extracción de hidrocarburos
son “la malla y los campos escalares, como presión y
saturación y el concepto de adecuaciones”.
Aunque calificó sus resultados como
positivos, la CUDA obtuvo el mejor rendimiento en ciertos campos escalares
(presión Axpy, por ejemplo) y IntelMKL en otro (presión
de contracción).
Uno de los objetivos del trabajo, informó,
fue evaluarlo. Primero, en el clúster que se tenía:
una máquina con ocho núcleos y una tarjeta gráfica,
y posteriormente, en un nuevo del Grupo de Modelación Matemática
y Computacional.
Actualmente, el también físico
trabaja en la simulación de inyección de cuatro pozos.
“Tengo un paralelepípedo. Inyecto en cuatro esquinas
y en el centro hay un pozo extractor”. La idea es utilizar,
evaluar y resolver con CUDA, IntelMKL y PETSc ya en un clúster
(“en un sistema de memoria distribuida por sí mismo,
no en un procesador que uno segmenta para disimular que es una memoria
distribuida) y comparar cuál es mejor.
Becario de la Dirección de Cómputo
y Tecnologías de la Información y la Comunicación
(DGTIC) y del Museo de Ciencias Universum, ambos de la UNAM, Monsiváis
Velázquez aún trabaja en cómputo paralelo, pero
aplicado a sistemas complejos, además de cursar otra maestría
en la Universidad Autónoma de la Ciudad de México.
-o0o-