Noticias

Avanza investigación en explicabilidad de los algoritmos de inteligencia artificial

Diciembre de 2020.- Para Leopoldo Bertossi, profesor titular de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez, estamos viviendo tiempos veloces y fructíferos en informática y ciencia de la computación. “Es un momento muy interesante para trabajar en inteligencia artificial, machine learning y data science: hay mucho por hacer y el impacto de los avances que se logran se ve de manera rápida”

Bertossi, investigador senior del Instituto Milenio de Fundamentos de los Datos (IMFD), señala que “uno de los desafíos más importantes hoy en inteligencia artificial es poder explicar científicamente las decisiones que toman los algoritmos, y habilitar a estos algoritmos para entregar estas explicaciones. Esta línea de investigación es conocida como explainable artificial intelligence o explainable AI”. 

Imagine, por ejemplo, que necesita solicitar un préstamo en un banco: “Antes, el análisis lo hacía un ejecutivo con papel y lápiz; hoy lo más frecuente es que la entidad cuente con un sistema de inteligencia artificial (IA) que utiliza nuestra información para tomar una decisión”. Este sistema es un algoritmo que ha sido alimentado y entrenado a lo largo del tiempo con los datos de muchos préstamos, aprendiendo a decir que sí o que no a los solicitantes según la experiencia que ha adquirido.

¿Qué pasa si el crédito no es otorgado? El solicitante querría saber por qué no fue aprobado su préstamo, o qué podría hacer para mejorar su perfil crediticio. Son esas explicaciones, a nivel individual, las que hoy no es fácil obtener, ya que los algoritmos pueden ser, internamente, funciones matemáticas muy complejas y difíciles de interpretar (el tema de la interpretabilidad de algoritmos y soluciones en IA acompaña el de explicabilidad). Se hace complejo el identificar exactamente cuáles  elementos tomó en cuenta un algoritmo. Recientemente se ha propuesto diversas soluciones a este problema, pero aún hay mucho que hacer.

“Además, los que trabajamos en este campo estamos tratando de desarrollar métodos para saber si el sistema IA, que está entregando resultados de forma automatizada, lo está haciendo de manera justa o si está cayendo en sesgos”, detalla el experto. Es por eso que, en la actualidad, la explicabilidad en IA va de la mano de conceptos como fairness and transparency, es decir, justicia y transparencia de los algoritmos de inteligencia artificial. Muchos países están desarrollando legislación sobre esto, y Chile no va a estar ajeno a ese debate. 

Ahora, obtener respuestas es un desafío no trivial: explicabilidad en IA es uno de las líneas más complejas y desafiantes en la actualidad, siendo uno de los focos de trabajo del IMFD, y, también,  el tema de una reciente publicación científica recién hecha por Bertossi, junto con Marcelo Arenas, director del IMFD y profesor titular de la Escuela de Ingeniería de la U. Católica; Pablo Barceló, subdirector del IMFD y director del Instituto de Ingeniería Matemática y Computacional IMC-UC, y Mikaël Monet, investigador postdoctorante del IMFD. 

En el artículo científico The Tractability of SHAP-Score-Based Explanations for Classification over Deterministic and Decomposable Boolean Circuits, que aparece en las actas de la conferencia AAAI 2021, la principal conferencia internacional general en IA, los investigadores analizaron distintos métodos que podrían ayudar a transparentar el proceso de toma de decisión de los algoritmos.

Existe un modelo, llamado SHAP-value, utilizado para conocer el valor asignado a los valores de las distintas variables dentro de un algoritmo de clasificación. Si aplicamos esto al ejemplo del préstamo bancario, el SHAP-value revelaría el valor que un algoritmo da a factores como el historial financiero, la situación laboral de una persona particular, y si está considerando elementos como el color de su piel. “Si el color de la piel tuviera el más alto ranking en una escala de relevancia para la clasificación, eso nos debería poner muy nerviosos respecto de lo que está pasando dentro del algoritmo, ya que habría un claro sesgo indeseado”, destaca el investigador. 

En la publicación, los académicos lograron definir en términos matemáticos precisos en qué modelos de clasificación se puede obtener ese SHAP-value de forma rápida, creando –además– una categorización de algoritmos de selección según cuán viable es obtener el SHAP-value, e identificando aquellos algoritmos para los cuales la obtención de ese valor es computacionalmente complejo. 

Y es a esto a lo que apunta la explicabilidad: a develar el proceso de toma de decisiones de un algoritmo, lo que podría sacar a la luz sesgos que no se condicen con los conceptos de justicia y transparencia. 

Para Bertossi, este es un primer paso: “Considerando que hoy ya existen muchos algoritmos entrenados para tomar decisiones sobre nuestras vidas, el impacto de obtener explicaciones en inteligencia artificial es muy alto. Si bien nuestro trabajo puede ser aplicado a una clase amplia de modelos de clasificación, el trabajo no termina ahí: hay mucho aún que investigar en esta materia, para avanzar y contribuir a que estos sistemas sean, efectivamente, más transparentes y justos”. 

 

Uno de los desafíos más importantes hoy en inteligencia artificial es poder explicar científicamente las decisiones que toman los algoritmos, y habilitar a estos algoritmos para entregar estas explicaciones. Esta línea de investigación es conocida como explainable artificial intelligence o explainable AI
Más noticias
Ver : Todas
Anual
2021
2020
2019
2018
2017
2016
2015
Semestral
Semestre 1
Semestre 2
Mensual
January
February
March
April
May
June
July
August
September
October
November
December
Sin noticias en esta categoria
Mostrar más
Nada para mostrar