Noticias

Conferencia ICLR 2020: conoce las investigaciones que presentó Jorge Pérez

Es la conferencia más importante en el área de deep learning, o redes neuronales profundas, “que es la técnica de inteligencia artificial (IA) más efectiva y la que mejores resultados está teniendo hoy”, dice Jorge Pérez, investigador del Instituto Milenio Fundamentos de los Datos (IMFD) y académico del Departamento de Ciencias de la Computación (DCC) de la Universidad de Chile. El investigador se refiere al encuentro científico ICLR 2020 (International Conference of Learning Representation). Originalmente la conferencia iba a ser en Etiopía, pero se llevó a cabo a fines de abril en modalidad online.

“La conferencia se llama Learning Representation, porque eso hacen las redes neuronales: aprenden representaciones de los datos, que les permiten después tomar muy buenas decisiones”, explica Pérez.

La ICLR es un encuentro de primera línea que se lleva a cabo todos los años y que es clave para las áreas de deep learning e IA. ¿La razón? Ahí se presentan los últimos resultados de trabajos de las universidades y centros de investigación más importantes en el mundo.

Con varios coautores, el investigador del IMFD presentó tres papers relacionados con estos temas. “En la conferencia principal de ICLR presenté un trabajo que realicé con Pablo Barceló -subdirector del IMFD-, que es una investigación específica en teoría de redes neuronales profundas”, detalla el académico.

Titulado “The Logical Expresiveness of Graph Neural Networks”, este artículo entrega ciertas luces para entender el poder expresivo de las Graph Neural Networks –redes neuronales que reciben grafos, como entrada–, es decir, “qué cosas pueden hacer y aprender, y cuáles no. Y lo hacemos desde el punto de vista de la lógica computacional clásica”, señala Pérez. Uno de los resultados principales es que las Graph Neural Networks más usadas, en la práctica, “son equivalentes a lo que pueden expresar ciertas lógicas de representación de conocimiento, uniendo así dos áreas bien disímiles de IA. Esto también abre la posibilidad de poder explicar lo que hacen estas redes neuronales de manera más precisa, aunque eso todavía está por verse”, agrega.

Otro de los papers que expuso el académico en un workshop de ICLR 2020, tiene que ver con medicina y una aplicación de IA que realizó, junto con su equipo, para la Clínica Las Condes. “El trabajo fue publicado en el workshop AI for Affordable Healthcare. La idea es predecir cuándo un paciente tendrá que re-hospitalizarse, después de que ha sido dado de alta. Mostramos cómo lograr una predicción desde datos no estructurados y usando texto en español”.

Ese artículo -llamado “Predicting Unplanned Readmissions with Highly Unstructured Data”- fue escrito junto con Constanza Fierro, quien actualmente trabaja en Google, y Javier Mora, cirujano cardiovascular.

Su participación en la conferencia incluyó también la presentación del artículo “Practical ML for Developing Countries”, que busca generar modelos de alta precisión para el procesamiento automático de lenguaje natural en español, “en particular, modelos basados en auto-atención neuronal”, indica Pérez.

La investigación que da origen a ese trabajo se llama “Spanish Pre-Trained BERT Model and Evaluation Data”, donde presentan un modelo conocido también con el nombre de BETO. En esto trabajó junto a José Cañete, Gabriel Chaperón y Rodrigo Fuentes, del DCC de la U. de Chile, y Jou-Hui Ho y Hojin Kang, del Departamento de Ingeniería Eléctrica de la U. de Chile.

Pérez cuenta que los trabajos fueron muy bien acogidos y hubo muchas preguntas. “Nuestro paper en la conferencia principal mezclaba dos áreas bien disímiles de IA, que son redes neuronales y representación del conocimiento. Eso llamó mucho la atención, sobre todo por parte de investigadores jóvenes. La pregunta más común era “¿cómo se les ocurrió mezclar estas dos cosas?”. Uno ve el resultado de una investigación, que es un artículo. Pero hay un trabajo de mucho tiempo que veníamos haciendo con Pablo Barceló y otros co-autores, para mezclar esas dos áreas”.

BETO va a tener mucho impacto, añade el académico, porque es un recurso que está disponible “para que lo use todo el mundo y no había otro de ese tipo en español. Espero realmente que mucha gente lo utilice. Sobre el trabajo que realizamos en el campo de la medicina tiene un factor muy interesante y es que podría tener aplicación en hospitales públicos. Estamos trabajando para poder llevarlo en ese rumbo”.

Si quieres conocer más sobre BETO, visita este enlance: https://imfd.cl/beto-la-red-neuronal-que-podria-ser-utilizada-durante-el-proximo-proceso-constituyente/

"Nuestro paper en la conferencia principal mezclaba dos áreas bien disímiles de IA, que son redes neuronales y representación del conocimiento. Eso llamó mucho la atención", dice Jorge Pérez.
More news
View : All
Annual
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
Biannual
1st semester
2nd semester
Monthly
January
February
March
April
May
June
July
August
September
October
November
December
No news in this category
Show more
Nothing to show