Hasta hace algunas décadas la manera de entender cómo se comportaba la materia era realizando experimentos, variando temperatura, presión, composición, etcétera, o teorizando, hasta que la computadora digital apareció, y por su accesibilidad logró convertirse en herramienta fundamental para enriquecer la ciencia y la tecnología.

Así, el cómputo, pero aún más, la modelación molecular por computadora, sirve para desentrañar los misterios sobre la materia, desde entender aspectos básicos como de qué están hechos los objetos o elementos, hasta la caracterización de sus moléculas, pues estas permiten entender la funcionalidad de cualquier cosa y, por tanto, su aplicación.

“Para hacer un modelo molecular se toman las características más relevantes de la molécula a modelar, porque si se colocan todas, ninguna computadora podría realizar una descripción completa. Como se recordará, cada molécula está hecha de átomos, entonces se toman miles de átomos de acuerdo con la capacidad de cómputo a la que se tenga acceso para realizar el proceso. Hoy en día, un conglomerado (clusters) de CPUs y GPUs pueden resolver un problema de decenas de millones de moléculas”, dijo Enrique Díaz Herrera, de la División de Ciencias Básicas e Ingeniería de la Universidad Autónoma Metropolitana-Iztapalapa.

El especialista en modelación computacional en paralelo destacó, sin embargo, que en nuestro entorno nacional, con menos capacidad de cómputo, quizás se puedan resolver cerca de cientos de miles con una precisión razonable para dar respuestas cercanas a la realidad macroscópica.

Debido a que las moléculas van siendo cada vez más intrincadas en muchos sistemas moleculares, biológicos principalmente, y los modelos, a su vez, también se complican, las computadoras de hace tres décadas no responden tan eficientemente a esa complejidad, reconoció el investigador, por lo que se pensó, dijo, en una red de computadoras capaz de distribuir la carga computacional entre varias de ellas para que  cada una realizara una parte del problema, para luego reunirlas nuevamente y obtener las respuestas. A este proceso se le llamó cómputo en paralelo: a mayor capacidad de computo, más velocidad de procesamiento.

Los códigos desarrollados de simulaciones moleculares pueden clasificarse en dos vertientes: “Una de ellas se refiere a códigos computacionales para cada molécula, es decir, hechos a la medida, los cuales son únicos pero controlables. La otra vertiente es para códigos desarrollados como software público, como plantillas, más fáciles de modificar, pero restringidos al diseño de sus creadores”.

Una vez que la molécula ha sido caracterizada, se realizan las simulaciones de un grupo finito de moléculas con función de variables como temperatura, presión, densidad, etcétera -como en un experimento-, para determinar si sus propiedades estructurales y/o termodinámicas son estables, o conocer cuándo dejan de serlo. Después de que la computadora terminó de resolver las ecuaciones de movimiento, se proyecta el modelo tridimensional de la molécula, en el que el investigador puede estudiar cómo se auto-ensamblan sus componentes, o en otras palabras, observar la manera en que se organiza la materia a nivel macroscópico -lo que determina sus propiedades estructurales y termodinámicas.

“Son experimentos computacionales que facilitan, en este caso, el entendimiento sobre el comportamiento de las moléculas, presentan diversas ventajas en comparación con los experimentos reales, en tiempo, dinero y esfuerzo”.

Actualmente, el Laboratorio de Cómputo de la UAM-Iztapalapa es pionero en cómputo en paralelo, cuenta con tres mil computadoras conectadas entre sí que resuelven problemas de física y brinda servicio a otras áreas de investigación. No obstante su capacidad, resulta insuficiente para resolver con mayor eficacia problemas modernos y de potencial aplicación.

Cristal líquido, un ejemplo

Una de las moléculas preferidas de estudio del investigador Enrique Díaz y su equipo de trabajo es el 5 Ciano-Bifenil (5CB), una molécula con una historia de éxito. “Todos aprendimos en los primeros niveles de educación que los estados físicos -estados estables- de la materia son tres: sólido, líquido y gaseoso -se nos enseñó que el plasma también contaba como uno más. Sin embargo, en 1888 el biólogo Friedrich Reinitzer, analizando una sustancia sólida derivada del colesterol, observó que al calentar la sustancia ésta se hacía líquida y al enfriarla pensó que cristalizaría, pero no, esta siguió siendo liquida antes de cristalizar”. A este tipo de estado de la materia se le llamó mesofases o cristal líquido, un nuevo estado estable de la materia ocasionado por la forma alargada de la molécula.

Para entender este fenómeno a nivel molecular, Díaz Herrera, integrante de la Academia Mexicana de Ciencias, ha modelado esta molécula a partir de la partícula de forma alargada. “Las moléculas alargadas del 5 Ciano-Bifenil cuando están a altas temperaturas se encuentran revueltas como la paja en un montón, pero conforme se van enfriando se orientan verticalmente, generando planos y dejando a estas moléculas sin posibilidad de moverse entre dichos planos, como los cristales, aunque la sustancia siga siendo líquida en el plano que forma”.

Cuando se comprendieron las fases del cristal líquido y sus posibles usos se comenzaron a fabricar pantallas planas, calculadoras, relojes, juegos electrónicos, ordenadores personales, televisores, salpicaderas de autos, dispositivos de visualización, conocidos como displays, cuyos componentes activos son las citadas nuevas fases estables de la materia, hoy conocidas como cristal líquido.

Lo anterior sirve de ejemplo para destacar que la utilización de la modelación computacional se hace cada vez más necesaria para comprender, en este caso, el comportamiento de una gran cantidad de moléculas y sus aplicaciones, pero como ya se mencionó líneas arriba, se utiliza igualmente con muy buenos resultados en otras áreas de investigación.