Noticias

Ricardo Baeza-Yates comenta sobre regulación en inteligencia artificial que afecta a seres humanos

El mes pasado, el investigador experto en ciencia de datos e inteligencia artificial (IA), Ricardo Baeza-Yates, recibió una llamada que no esperaba: le comunicaron que había sido elegido, junto a otros expertos, para integrar el Consejo Asesor de Inteligencia Artificial del estado español. Se trata de un órgano consultivo cuyo rol es asesorar y entregar recomendaciones independientes sobre inteligencia artificial, y puntualmente, las medidas que se deben adoptar para garantizar un uso seguro y ético de esta tecnología, tan en auge en estos días.

De acuerdo al diario Cinco Días perteneciente a El País de España, “este nuevo órgano, presidido por la tercera vicepresidenta del Gobierno y ministro de Asuntos Económicos y Transformación Digital, Nadia Calviño, está compuesto por 18 expertos españoles ‘de máximo prestigio a nivel internacional en la materia’. Según ha explicado el Ejecutivo en un comunicado, este consejo contribuirá a la finalización y puesta en marcha de la Estrategia Nacional de Inteligencia Artificial”, dice la publicación. 

En esta entrevista, Baeza-Yates, investigador senior del Instituto Milenio Fundamentos de los Datos (IMFD) y profesor titular del Departamento de Ciencias de la Computación (DCC) de la U. de Chile, explica el alcance que podría tener su trabajo al alero de este consejo y los resguardos que hay que tener respecto al uso de inteligencia artificial, en los procesos y aplicaciones relacionadas con las personas y la sociedad en general. 

-¿Te tomó por sorpresa este nombramiento?

-Sí, me tomó un poco por sorpresa porque en España hay mucha gente calificada en inteligencia artificial. Además, para estar en un Consejo de Estado se necesita ser español. Yo cumplo con este requisito, aunque fue por nacionalización y no por nacimiento, ya que Chile y España tienen un acuerdo de doble nacionalidad. 

-Fuiste catedrático de la Institución Catalana de Investigación y Estudios Avanzados (ICREA) y fundador del Grupo de Ciencias de la Web y Computación Social de la Universitat Pompeu Fabra, en Barcelona. ¿Este trabajo previo explica en parte tu nombramiento?

-Supongo que sí. Llegué a Cataluña en 2004 gracias a
ICREA, un programa de atracción de talento que pertenece al gobierno catalán. Luego, mi contribución principal fue haber liderado el laboratorio de investigación europeo de Yahoo Labs en Barcelona entre 2006 y 2015, uno de los más importantes laboratorios industriales de computación que ha tenido España. También supongo que consideraron mi trayectoria científica, ya que soy uno de los tres científicos de computación más citados de España y el más citado, Francisco Herrera, también es parte del consejo. Finalmente, en 2018 gané uno de los premios de informática españoles llamado Angela Ruiz Robles por mi trayectoria en investigación aplicada y transferencia tecnológica. 

-¿Cuán relevante es para ti ser parte de este consejo asesor que dará recomendaciones independientes para garantizar un uso seguro y ético de la IA?

-Creo que es un reconocimiento a mi carrera científica y también está muy alineado con unos de mis temas de investigación actual que es la IA responsable y ética. Esto último, sobretodo en sistemas web donde hay un circuito cerrado que aprende de las interacciones con sus usuarios, como los buscadores o los sistemas de recomendación. Estos sistemas pueden magnificar los sesgos cognitivos de las personas que influyen en el aprendizaje del sistema, recordando que es el mismo sistema que genera los elementos con los que las personas pueden interactuar. En parte, el sistema está construyendo el futuro de la interacción, pues ayuda a generar los datos con los que va a aprender.

-¿Puedes adelantar cuáles son los puntos más importantes que hay que tener en cuenta, en este sentido, con el uso de la IA?

-El primer aspecto es el ético, pues hay aplicaciones que no deberían ser usadas si pueden causar daño a individuos, o a la sociedad en general. Esto va desde aplicaciones militares a selección de personal, donde puede discriminarse a mujeres o a minorías específicas. Un ejemplo clásico es el uso de reconocimiento facial para reconocer
criminales u homosexuales, que de cierto modo “redescubren” la seudociencia de la frenología, muy popular en el siglo XIX, que explicaba rasgos de la personalidad, así como supuestas tendencias criminales, según la forma del cráneo, cabeza y facciones.
Otro ejemplo son los sistemas de seguridad que discriminan personas de ciertas razas. Por este motivo, recientemente grandes compañías como Amazon, IBM y Microsoft han decidido congelar la venta de software de este tipo. En esa misma línea, recientemente el comité de políticas tecnológicas de la Association for Computing Machinery (ACM), en el cual soy miembro del subcomité de IA y algoritmos, hizo una recomendación similar. ACM es la asociación de profesionales y científicos de informática más importante del mundo, con decenas de publicaciones y  recursos que promueven la informática como ciencia y profesión.
El segundo aspecto es el de igualdad, equidad y justicia para aplicaciones que sí son éticas. Esto incluye evitar discriminación de género o minorías en aplicaciones que deciden sobre personas, o discriminación de productos o servicios en mercados digitales. Estos son sólo dos ejemplos que no incluyen otros sesgos de datos, algorítmicos o de uso, como los sesgos cognitivos mencionados anteriormente, que pueden afectar a sistemas de IA.

-¿Cómo ves el panorama en Chile, donde se creó una comisión para este tema?

-Chile va un poco atrasado en el tema. España, por ejemplo, ya tiene un
plan estratégico de IA que fue publicado en 2019. Yo participé en el comité que diseño el plan de IA de Cataluña, que se publicó al comienzo de este año. Por lo que sé, actualmente en Chile se están recibiendo contribuciones para un futuro plan de inteligencia artificial. Pero el comité de 10 personas está más orientado al impacto de la IA en la economía, y no en el uso seguro y ético de ella. De hecho, hay sólo dos investigadores de IA propiamente tal, y otros dos de temas afines.

-¿Qué impacto puede tener el trabajo de este comité en España para otros países de la Unión Europea? ¿La experiencia y recomendaciones que recojan puede servir para países como Chile?

-Todos los esfuerzos en la comunidad europea están bastante coordinados. La Unión Europea ya ha publicado muchas recomendaciones de la IA que son útiles para todo el mundo y que son el insumo inicial para el trabajo de este nuevo consejo, que tendrá como tarea principal apoyar la implementación del plan estratégico español. Espero que podamos generar documentos públicos que sean útiles no sólo para Chile, sino para otros países de Latinoamérica. De todos modos, siempre estoy disponible para aportar con mi conocimiento y experiencia. Por ejemplo, actualmente soy miembro del consejo asesor que tiene el Banco Interamericano de Desarrollo (BID) para el uso responsable de la IA en Latinoamérica y el Caribe (
fAIrLAC).

-¿Qué es lo que viene en este tema de la IA a futuro?

-Espero que las aplicaciones de IA que afectan a los seres humanos sean como los medicamentos: reguladas para asegurarse de que son éticas, justas y seguras. Esta regulación puede variar de país a país porque la ética depende de la cultura, al igual que la definición de que es justo, no es universal aún. En 2017, la ACM publicó las
siete propiedades que deberían tener los algoritmos responsables y transparentes. Sin embargo, la mayoría de los algoritmos no cumple ni una de ellas.
Incluso en aplicaciones que no necesitan ser reguladas, creo que los algoritmos responsables harán una diferencia en la adopción de ciertos productos, de forma similar a cómo sucede con los alimentos orgánicos hoy. Para ello, será necesario que las compañías compartan datos anónimos para que instituciones neutrales puedan validar afirmaciones, o auditar estas aplicaciones, del mismo modo que hoy se pueden hacer estudios de laboratorio con muestras de alimentos.
En este tema el IMFD puede tener un rol muy importante en Chile como institución independiente, para auditar y certificar cualquier software que tome o recomiende decisiones, sobre todo las que afectan a personas o la sociedad.

"El IMFD puede tener un rol muy importante en Chile, como institución independiente, para auditar y certificar cualquier software que tome o recomiende decisiones, sobre todo las que afectan a la sociedad".
More news
View : All
Annual
2024
2023
2022
2021
2020
2019
2018
2017
2016
2015
Biannual
1st semester
2nd semester
Monthly
January
February
March
April
May
June
July
August
September
October
November
December
No news in this category
Show more
Nothing to show