El supercomputador más potente de Chile - IDE-Chile

El supercomputador más potente de Chile

Por: IDE Chile - Viernes, 29 Noviembre 2019

0.0/5 Rating (0 votos)

El Laboratorio Nacional de Computación de alto Rendimiento (NLHPC) ha puesto en operación a Guacolda, una máquina capaz de procesar 196 billones de operaciones por segundo y que le permitirá a los científicos chilenos seguir adentrándose en los misterios del cosmos, el futuro de la Tierra y los secretos que habitan en nosotros.

gines-guerrero-guacolda-u-de-chile

Es como si gritara en la tormenta. La voz de Ginés Guerrero, especialista en informática, se pierde bajo el estruendo de los ventiladores del supercomputador más potente de Chile. Es una máquina negra de dos metros de alto, con luces verdes y azules titilantes, capaz de procesar 196 billones de operaciones por segundo. Sus 59 procesadores que funcionan día y noche en un subsuelo de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, son como pequeños hornos. Si no fuera por el viento helado que los refrigera y por un sistema de seguridad que los protege, arderían en llamas.

—Ésta es Guacolda— grita Guerrero, español de 36 años, Director del Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC).

Su potencia —equiparable a la de 25 mil computadores personales— se debe a que todos sus procesadores trabajan juntos, como un equipo, para resolver en poco tiempo problemas que a un investigador le podrían tomar meses, años o la vida entera. Es como un supercerebro: tiene la capacidad de entender una molécula y una supernova, de simular el efecto de un fármaco y de una bomba nuclear, de predecir un desastre natural y la temperatura de la Tierra. En resumen, podría dar respuestas sobre todo aquello que el hombre sea capaz de traducir en matemática. Guacolda, que pertenece al Centro de Modelamiento Matemático (CMM), está en funcionamiento desde junio de este año y ha llegado a desbancar a Leftraru —Lautaro, en mapudungun— que hasta entonces era el supercomputador más potente de Chile. Guacolda, que ha sido bautizada así en honor a su mítica pareja, lo ha superado. Ahora ambas máquinas, a un par de pasos de distancia, trabajan juntas al servicio de la comunidad científica chilena, del Estado y la industria: actualmente la utilizan de forma gratuita y remota 24 universidades y centros de investigación, además de ministerios, como el de Obras Públicas y Bienes Nacionales.

—Ahora se está ocupando casi al cien por cien. Son cientos los investigadores que la están usando de manera simultánea en estudios relevantes para los chilenos —dice Guerrero forzando de nuevo la voz.
Es una de las máquinas más potentes de Latinoamérica y en ella se podría almacenar tanta música que para escucharla de corrido habría que vivir cuatro siglos. Con Guacolda todo será más rápido: es capaz de hacer en un día lo que Leftraru hacía en cuatro, y su poder se esconde allí, en sus hileras de procesadores azotados por el viento helado.

La lucha es obstinada. Desde hace décadas, las principales potencias llevan una carrera interminable por ser dueños del supercomputador más poderoso del mundo. Desde 1998 varias universidades y laboratorios crearon una lista, la TOP500, que dos veces al año ordena los 500 computadores con mejor rendimiento y que siempre es liderada por Estados Unidos y China. En la última edición, Latinoamérica solo estuvo representada por Brasil, que en el puesto 142 tiene a Fênix, de la petrolera Petrobras. "Un país que no computa, no compite", suele repetir Mateo Valero, español de 67 años, director del Centro Nacional de Supercomputación de España que, a partir del 2021, albergará a MareNostrum 5, uno de los diez mejores supercomputadores que existen. En enero, Valero estará en Santiago para ser parte de la inauguración de Guacolda.

—Es una gran noticia para Chile que se actualicen sus computadores —dice al teléfono desde Barcelona—. Veo que avanzan en la línea correcta. El gran problema de la supercomputación no es comprar una máquina, sino tener gente formada, y entiendo que es el caso. De a poco deben seguir evolucionando, porque las máquinas necesitan actualizarse cada tres o cuatro años.

Pocas cosas han aumentado tanto en el último tiempo como la potencia de los supercomputadores: desde los 90 —dice— se ha multiplicado cerca de mil veces cada década. Pone un ejemplo: MareNostrum 1, la máquina con la que trabajaban en 2004 y que por ese entonces era la mejor de Europa, era capaz de hacer en un año lo que MareNostrum 5 hará en menos de una hora. Gracias a eso han podido desarrollar, por ejemplo, un corazón 3D o un método para mejorar la búsqueda de petróleo.

—Cuando los investigadores saben que tienen acceso a máquinas mejores, cambian el tipo de problemas y de investigación. Los mejoran muchísimo —dice Valero—. Nosotros, por cada euro que nos han dado hemos retornado siete. No hay duda de que bien utilizados los supercomputadores producen riqueza para el país. Hasta el momento, Chile los ha usado para estudiar de todo: las plagas en las cosechas, las marejadas, los tsunamis, los salarios, las supernovas, los fármacos, las moléculas, las lluvias, la Antártica. Se han hecho cientos de investigaciones. Por ejemplo, Leftraru —que está en funcionamiento desde 2014— ha servido para secuenciar el genoma del salmón y de la vid, procesar las imágenes de los radiotelescopios de ALMA o planificar dónde ubicar las escuelas en las grandes ciudades.

De esto último se ha encargado Jorge Amaya, investigador del CMM, quien ha desarrollado un modelo que, asegura, podría lograr que todos los niños tengan cerca de su casa una escuela de calidad. El algoritmo tiene 100 mil instrucciones, pero Leftraru es capaz de correrlo en minutos y hacer una propuesta. Es decir, definir para cada comuna la cantidad de escuelas, la distancia que debe haber entre ellas, las horas de cada materia, el número de niños por curso y de profesores por colegio. Hasta el momento ha trabajado un plan piloto con autoridades educativas de las comunas de Peñalolén, Maipú y Pudahuel.

Sentado en su escritorio, Amaya muestra en su computador un escenario posible para las escuelas de una comuna de Santiago, mientras dice que está convencido de que una herramienta como ésta, que combina el poder de la matemática con la rapidez de la supercomputación, puede ser capaz de transformar la educación.

—Hace 50 años no existían equipos capaces de hacer estos cálculos. Hoy sí los tenemos y los hacemos en 15 minutos. Así podemos ayudar a planificar la educación en ciudades grandes de América Latina y tener un gran impacto en la calidad de vida de la ciudad.

El consumo de energía. Ese es el talón de Aquiles de estas máquinas. En 2015 el gobierno de Brasil compró a Santos Dumont —por entonces el supercomputador más potente de Latinoamérica—, pero poco después tuvieron que reducir al mínimo su funcionamiento: mantener la máquina activa costaba casi 150 mil dólares mensuales. Al CMM mantener sus dos supercomputadores —que cada mes consumen más energía que 200 casas— implica un costo cercano a los 10 millones de pesos mensuales.

Guacolda, que costó 485 millones de pesos y fue financiada por el NLHPC y Conicyt, llegó al CMM cuando Leftraru ya no daba abasto. En los próximos años deberán ampliar de nuevo su capacidad para así estar a tono con las necesidades de los científicos, que son cada vez mayores. Estudiar el cambio climático, por ejemplo, exige cada vez más potencia. Solo una máquina como ésta es capaz de analizar una infinidad de variables para simular la temperatura o la cantidad de lluvias que caerán en 15 o 30 años. Por eso, los investigadores del Centro de Ciencia del Clima y la Resiliencia se apoyaron en Leftraru para crear la primera Plataforma de Simulaciones Climáticas, el mapa más detallado que existe de Chile y en el que se simulan distintos futuros —unos optimistas, otros pesimistas— de aquí a 2050. El próximo paso será hacer nuevas simulaciones para contrastarlas entre sí y afinar los resultados. Para eso, la ayuda de Guacolda será fundamental. También lo será para simular escenarios de sequía extrema que permitirá al Ministerio de Obras Públicas saber si vale la pena, por ejemplo, construir un embalse en cierta zona. Además, podrán predecir los efectos de las marejadas y tsunamis en las costas. Pero Guacolda no solo nos hablará sobre el planeta. También nos llevará al fondo de nosotros mismos. Eso es lo que busca el proyecto 1000 Genomas, una iniciativa inédita en el país que se ha propuesto, por un lado, descifrar los secretos que esconde nuestro genoma y, por otro, construir un arca de Noé genética. Para eso, en cuatro años secuenciarán el genoma de mil chilenos y de mil especies no humanas. Quien lidera este esfuerzo —del que participan cinco centros científicos— es el biólogo molecular Miguel Allende, de 57 años, director del Centro de Regulación del Genoma. Conocer la genética de los chilenos, dice, será fundamental para la salud pública, ya que ayudará a prevenir las enfermedades más prevalentes en el país, como el cáncer vesicular y gástrico. En el caso de plantas y animales será útil para la agricultura, la minería y la pesca, pero sobre todo, dice el biólogo, para conocer y proteger nuestra biodiversidad. Muchas especies estarán en riesgo por el cambio climático y conocer su genoma nos permitirá ayudarlas a resistir.

—Sin estas máquinas no podríamos hacer el proyecto, sobre todo en las especies no humanas, porque si bien algunas son sencillas como los microorganismos, otras tienen genomas más grandes que los humanos —dice Allende—. Eso significa que vamos a acumular muchos más datos de los que vamos a ser capaces de procesar en los supercomputadores que, a pesar de su potencia, siguen siendo el cuello de botella de la genómica.

—Esta supernova explotó hace un par de horas —dice— son sencillas como los microorganismos, otras tienen genomas más grandes que los humanos —dice Allende—. En esos casos, el supercomputador se vuelve imprescindible. A punto de cumplir su primer año, 1000 Genomas ha secuenciado el genoma de once chilenos y de cerca de 70 especies. Allende calcula que, con el tiempo, el proceso será cada vez más rápido, ya que los costos de secuenciación de ADN serán todavía más accesibles. La espera será al momento de procesar: un genoma complejo, por ejemplo, como el de algunos árboles o plantas, tarda una semana.

—Esta supernova explotó hace un par de horas —dice frente a su computador el astrónomo Francisco Förster, de 39 años. Es una mañana de octubre en el laboratorio de Astroinformática del CMM, cuando señala una mancha blanca sobre la noche: una explosión que sucedió hace millones de años, pero cuya luz llegó a la Tierra la noche anterior. Descubrirla en la inmensidad del cosmos ha sido posible gracias a ALeRCE, un proyecto que ha diseñado junto a instituciones como el Instituto Milenio de Astrofísica, que permite analizar el cielo en tiempo real. El objetivo: buscar las pistas de una explosión.

Cada noche, reciben más de 100 mil alertas de una posible supernova. Por eso, para disminuir la cantidad, han decidido enseñarle a Leftraru como si fuera un niño. Mostrarle millones de ejemplos para que a través de un algoritmo de inteligencia artificial sea capaz de desechar lo que no importa. Así han podido reducir a 100 el número de candidatos. Entonces, sí es necesario el ojo humano, el ojo del astrónomo, para identificar la supernova. Es Francisco Förster quien cada mañana encuentra cerca de una decena.

—Gracias a Leftraru somos el equipo más rápido en el mundo en descubrir supernovas —dice—. Nos demoramos seis horas desde que la detectamos por primera vez y la reportamos a la comunidad. En diez semanas hemos encontrado más de 800.

El año pasado, además, su equipo ha logrado otra gran conquista: descubrir que algunas supernovas, justo antes del estallido principal, emiten un destello que ningún astrónomo del mundo había percibido. Captar fenómenos como esos, dice el investigador, será más probable a partir del 2023, cuando empiece a funcionar el telescopio más potente del mundo, el LSST (Large Synoptic Survey Telescope), que desde el norte de Chile escaneará el cielo cada tres noches. Con su cámara de 3.000 millones de píxeles hará la película más larga y nítida que jamás haya existido del universo. Eso implicará una avalancha de datos —10 millones de alertas por noche— para la que su equipo aún no está preparado. Por eso será necesario entrenar a los astrónomos en el manejo de datos y diseñar una red de supercomputadores capaz de almacenarlos. La astronomía del mañana, dice, dependerá de ellos. Y también la genética, el estudio del clima, la mecánica cuántica y todas las ciencias que manejan volúmenes de datos imposibles de aprehender para un cerebro humano. En el futuro, el hombre modelará a las máquinas y ellas el futuro del hombre. Lo harán buscando respuestas a nuevas preguntas, como ya lo hacen Leftraru y Guacolda, en la soledad de un subsuelo, cubiertas de luces titilantes, envueltas en su propio estruendo.

Más Información:

Comentarios (0)

Déje un comentario

Sólo se publicarán los comentarios que indiquen el Nombre y Apellido.

Últimos Artículos

mi geoportal