Papers de investigadores IMFD son aceptados en importante conferencia de machine learning

ICML es una de las reuniones más relevantes del mundo para investigadores dedicados al estudio y el avance del aprendizaje automático, una de las ramas esenciales de la inteligencia artificial. La versión 2025 se llevará a cabo en Canadá y contará con la participación de varios trabajos, dos de ellos desarrollados por el director del IMFD, Juan Reutter, académico del Departamento de Ciencia de la Computación UC en cargo compartido con el Instituto de Ingeniería Matemática Computacional UC, y Pablo Barceló, director IMC UC, investigador CENIA e MFD, que abarcan desde redes neuronales de grafos hasta un nuevo algoritmo para problemas de decisión Markovianos.

En 1980, la Universidad Carnegie-Mellon en Pittsburgh (EE.UU.) fue sede de la primera versión de la Conferencia Internacional de Aprendizaje Automático (ICML). Con el paso de los años, el evento se convertiría en una de las reuniones más importantes de profesionales dedicados al avance de esta rama de la inteligencia artificial, también conocida en inglés como “machine learning”.

La versión 2025 se realizará entre el 13 y el 19 de julio en Vancouver, Canadá. Tal como en ediciones anteriores, se espera que el evento vuelva a ser la instancia ideal para presentar investigaciones de vanguardia sobre distintas áreas del aprendizaje automático, el cual hoy se relaciona estrechamente con disciplinas como la estadística y la ciencia de datos. A estas áreas se suman campos de aplicación tan importantes como la visión artificial, la biología computacional, el reconocimiento de voz y la robótica.

“ICML es una de las tres conferencias en machine learning en donde todos los que hacen investigación en esta área quieren publicar, junto con Neurips e ICLR. Todos los grandes centros de investigación de universidades y empresas de Estados Unidos, China y Europa intentan participar”, explica el director IMFD.

Juan Reutter

El trabajo donde participan Juan Reutter y Pablo Barceló se titula “How Expressive are Knowledge Graph Foundation Models?” y fue desarrollado junto a Xingyue Huang (U. de Oxford), Michael M. Bronstein (U. de Oxford), İsmail İlkan Ceylan (U. de Oxford), Mikhail Galkin (Google) y Miguel Romero Orth (DCC UC).

Tal como indica el título del paper, el estudio trata sobre redes neuronales de grafos. Estos últimos corresponden a modelos que representan relaciones entre elementos de un conjunto. El académico señala que, específicamente, la investigación realizada por él y sus colegas se centra en “modelos de redes que puedan usarse en grafos que sean completamente distintos a los grafos que usamos para entrenarlas. Algo equivalente a ChatGPT, por ejemplo, que se usa hoy en día para cualquier tipo de texto”, explica Reutter. El académico agrega que él y sus colegas proponen un “marco teórico para el diseño de estas redes, y, tal vez más importante, damos técnicas matemáticas que nos permiten entender el poder de estas redes, y en particular cuáles son mejores que otras”.

Detalla que esta línea de investigación, enfocada en redes neuronales de grafos que puedan generalizar a cualquier dominio, está cada vez más en boga. “Veo a la gente usando nuestro estudio para entender cómo diseñar estas redes en contextos prácticos, los que se ven cada vez más importantes. Por otro lado, nos acerca más a poder lograr una especie de ChatGPT para grafos, que es como el santo grial del área de machine learning sobre grafos”, indica Reutter.

Investigación interdisciplinaria

Otro de los papers aceptados en ICML 2025 se llama “Ehrenfeucht-Haussler Rank and Chain of Thought” y tiene como coautores a Pablo Barceló, Alexander Kozachinskiy (CENIA) y Tomasz Steifer (Institute of Fundamental Technological Research of the Polish Academy of Sciences). Kozachinskiy, quien fuera postdoctorante del IMFD e IMC UC al igual que Steifer, explica que la aceptación del paper en ICML es un gran logro.

“Es una conferencia de rango A* y de este modo es una de las conferencias más prestigiosas en el área de machine learning. Esta edición de ICML tuvo 12.107 artículos enviados, y sólo 3.260 fueron aceptados”, señala el investigador de CENIA.

Kozachinskiy precisa que en el artículo él y los demás coautores han alcanzado a “relacionar la teoría clásica de ‘Pac learning’ (‘aprendizaje correcto probablemente aproximado’) con el desarrollo reciente de la inteligencia artificial”. Es decir, agrega, han “demostrado que una noción de rango que fue definida en un trabajo clásico de Erenfeucht y Haussler (1989) se puede también definir a través de modelos grandes de lenguaje. Así, hemos encontrado un vínculo bastante sorprendente entre dos líneas de investigación en machine learning”.

A futuro, comenta Kozachinskiy, lo ideal sería “encontrar más vinculaciones entre el área de inteligencia artificial con otras más desarrolladas de las matemáticas y la ciencia computacional. De esta manera, podríamos profundizar la investigación de modelos grandes de lenguaje e iluminar más la significación de las herramientas clásicas”.

Fuente: IMC UC