_
_
_
_
_
QUÍMICA
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Experimentos en superordenadores

Ecuaciones clásicas y cuánticas permiten estudiar sistemas complejos Mediante los modelos se diseñan fármacos con nuevas propiedades

El comité de los Nobel anuncia el premio de Química 2013.
El comité de los Nobel anuncia el premio de Química 2013.j. n. (afp)

Este año reciben el Premio Nobel de Química los investigadores Martin Karplus, Michael Levitt y Arieh Warshel por “el desarrollo de modelos computacionales para la descripción de sistemas químicos complejos”. Su trabajo se enmarca dentro de la química computacional, una disciplina que hace uso de ordenadores en lugar de los tradicionales tubos de ensayo para estudiar las propiedades, comportamiento y reactividad de las sustancias químicas.

Las raíces de la Química Computacional están en el trabajo pionero de Linus Pauling, premio Nobel de Química en 1954, quien introdujo los conceptos de la física cuántica en la descripción de los fenómenos químicos. Estos fenómenos son consecuencia del movimiento de los electrones y los núcleos atómicos que componen las moléculas. En concreto, el movimiento de los electrones es el que determina la reactividad química, movimiento que solo puede ser descrito de forma precisa en el marco de la física cuántica.

La consecuencia del trabajo de Pauling fue el desarrollo de métodos matemáticos encaminados a la resolución de la ecuación fundamental de la Física Cuántica, la ecuación de Schrödinger, cuya complejidad en el caso de sistemas químicos, incluso los más sencillos, es tan grande que uno está obligado a utilizar aproximaciones. Aun con tales aproximaciones, las ecuaciones son demasiado complicadas para ser resueltas a mano, lo que hace imprescindible el uso de ordenadores. De ahí el nombre de química computacional.

El tremendo desarrollo de esta disciplina en la actualidad se debe, en parte, a otros dos premios Nobel, Walter Khon y John Pople, que recibieron el galardón en 1998. Sin embargo, a pesar del éxito alcanzado en la descripción de moléculas sencillas, la aplicación de tales métodos a sistemas complejos (pero tan importantes como las proteínas, el ADN o las nanopartículas) seguía siendo prohibitiva hasta hace algunos años, incluso utilizando los ordenadores más potentes.

La gran contribución de los tres investigadores galardonados este año con el Nobel fue constatar que, en sistemas como los mencionados, algunos de sus constituyentes, en concreto aquellos que se encuentran más alejados de los centros reactivos de las moléculas, se pueden describir siguiendo patrones similares a los de la física clásica de Newton. A diferencia de las ecuaciones de la física cuántica, las de la física clásica son más sencillas de resolver, por lo que la combinación de ambos tipos de ecuaciones permite abordar el estudio de sistemas químicos mucho más complejos que los que se pueden tratar utilizando exclusivamente la física cuántica.

Aun así, el tamaño de las moléculas en química y biología es tal que la resolución de las ecuaciones que resultan de esta combinación cuántica-clásica puede llegar a requerir decenas de años de cómputo en ordenadores diseñados para realizar, como las personas, una sola tarea a la vez.

La única manera de reducir la duración de los cálculos para garantizar el rápido procesado de los resultados es repartir las distintas tareas entre muchos de los ordenadores que trabajen de forma simultánea. Es lo que se denomina realizar cálculos en paralelo. Así, por ejemplo, para un cálculo que requiera 42 días en un ordenador, el reparto equitativo de las tareas entre mil ordenadores (o más correctamente, núcleos) nos permite obtener el resultado en tan solo una hora. En este tipo de cálculos, la eficiencia del reparto de tareas es crucial para reducir al máximo la duración de los cálculos, lo cual depende de la eficiencia de la comunicación entre los distintos núcleos. Esto último es la base de la supercomputación o High performance computing (HPC). En el entorno español, se pueden realizar cálculos de este tipo en los superordenadores de la Red Española de Supercomputación, como el Mare Nostrum de Barcelona, o en el XCHEM de la Universidad Autónoma de Madrid.

Utilizando la adecuada combinación de física cuántica y clásica, y superordenadores similares a los mencionados anteriormente, Karplus, Levitt y Warshel contribuyeron, entre otras cosas, a la comprensión de procesos biológicos tan complejos como el plegamiento y la funcionalidad de algunas proteínas, la reparación del ADN, el funcionamiento de máquinas moleculares y la catálisis enzimática. También dieron un notable impulso al diseño por ordenador de fármacos y moléculas biológicas con nuevas propiedades. Por todo ello, no es aventurado afirmar que, en un futuro no muy lejano, la química de laboratorio se vaya nutriendo cada vez más del poder predictivo de la química computacional y que, apoyada en el rápido desarrollo de los ordenadores, esta última pueda orientar e incluso reemplazar a multitud de experimentos exploratorios o de tanteo como los que se realizan en las fases iniciales de toda investigación en química.

Fernando Martín García es catedrático de Química Física de la Universidad Autónoma de Madrid (UAM) y director del Proyecto XCHEM del Consejo Europeo de Investigación (ERC).

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_