Uso ético de esta tecnología

Académico Ricardo Baeza-Yates fue incorporado al Consejo Asesor de Inteligencia Artificial del Estado español

Ricardo Baeza-Yates se incorporó al Consejo Asesor de IA de España
El Consejo Asesor de Inteligencia Artificial del estado español contribuirá a la finalización y puesta en marcha de la Estrategia Nacional de Inteligencia Artificial de ese país.
El Consejo Asesor de Inteligencia Artificial del estado español contribuirá a la finalización y puesta en marcha de la Estrategia Nacional de Inteligencia Artificial de ese país.
El académico aseguró que hay aplicaciones de la IA que no deberían ser usadas si pueden causar daño a individuos, o a la sociedad en general.
El académico aseguró que hay aplicaciones de la IA que no deberían ser usadas si pueden causar daño a individuos, o a la sociedad en general.

El mes pasado, el investigador experto en ciencia de datos e inteligencia artificial (IA), Ricardo Baeza-Yates, recibió una llamada que no esperaba: le comunicaron que había sido elegido, junto a otros expertos, para integrar el Consejo Asesor de Inteligencia Artificial del estado español. Se trata de un órgano consultivo cuyo rol es asesorar y entregar recomendaciones independientes sobre inteligencia artificial, y puntualmente, las medidas que se deben adoptar para garantizar un uso seguro y ético de esta tecnología, tan en auge en estos días.

De acuerdo al diario Cinco Días perteneciente a El País de España, “este nuevo órgano, presidido por la tercera vicepresidenta del Gobierno y ministro de Asuntos Económicos y Transformación Digital, Nadia Calviño, está compuesto por 18 expertos españoles ‘de máximo prestigio a nivel internacional en la materia’. Según ha explicado el Ejecutivo en un comunicado, este consejo contribuirá a la finalización y puesta en marcha de la Estrategia Nacional de Inteligencia Artificial”, dice la publicación.

Baeza-Yates, investigador senior del Instituto Milenio Fundamentos de los Datos (IMFD) y profesor titular del Departamento de Ciencias de la Computación (DCC) de la U. de Chile, explica el alcance que podría tener su trabajo al alero de este consejo y los resguardos que hay que tener respecto al uso de inteligencia artificial, en los procesos y aplicaciones relacionadas con las personas y la sociedad en general. "Me tomó un poco por sorpresa porque en España hay mucha gente calificada en inteligencia artificial. Además, para estar en un Consejo de Estado se necesita ser español. Yo cumplo con este requisito, aunque fue por nacionalización y no por nacimiento, ya que Chile y España tienen un acuerdo de doble nacionalidad", detalla el profesor.

Fue catedrático de la Institución Catalana de Investigación y Estudios Avanzados (ICREA) y fundador del Grupo de Ciencias de la Web y Computación Social de la Universitat Pompeu Fabra, en Barcelona. ¿Este trabajo previo explica en parte tu nombramiento?

Supongo que sí. Llegué a Cataluña en 2004 gracias a ICREA, un programa de atracción de talento que pertenece al gobierno catalán. Luego, mi contribución principal fue haber liderado el laboratorio de investigación europeo de Yahoo Labs en Barcelona entre 2006 y 2015, uno de los más importantes laboratorios industriales de computación que ha tenido España. También supongo que consideraron mi trayectoria científica, ya que soy uno de los tres científicos de computación más citados de España y el más citado, Francisco Herrera, también es parte del consejo. Finalmente, en 2018 gané uno de los premios de informática españoles llamado Á ngela Ruiz Robles por mi trayectoria en investigación aplicada y transferencia tecnológica.

¿Cuán relevante es ser parte de este consejo asesor que dará recomendaciones independientes para garantizar un uso seguro y ético de la IA?

Creo que es un reconocimiento a mi carrera científica y también está muy alineado con unos de mis temas de investigación actual que es la IA responsable y ética. Esto último, sobretodo en sistemas web donde hay un circuito cerrado que aprende de las interacciones con sus usuarios, como los buscadores o los sistemas de recomendación. Estos sistemas pueden magnificar los sesgos cognitivos de las personas que influyen en el aprendizaje del sistema, recordando que es el mismo sistema que genera los elementos con los que las personas pueden interactuar. En parte, el sistema está construyendo el futuro de la interacción, pues ayuda a generar los datos con los que va a aprender.

¿Puede adelantar cuáles son los puntos más importantes que hay que tener en cuenta, en este sentido, con el uso de la IA?

El primer aspecto es el ético, pues hay aplicaciones que no deberían ser usadas si pueden causar daño a individuos, o a la sociedad en general. Esto va desde aplicaciones militares a selección de personal, donde puede discriminarse a mujeres o a minorías específicas. Un ejemplo clásico es el uso de reconocimiento facial para reconocer criminales u homosexuales, que de cierto modo “redescubren” la pseudociencia de la frenología, muy popular en el siglo XIX, que explicaba rasgos de la personalidad, así como supuestas tendencias criminales, según la forma del cráneo, cabeza y facciones.

Otro ejemplo son los sistemas de seguridad que discriminan personas de ciertas características. Por este motivo, recientemente grandes compañías como Amazon, IBM y Microsoft han decidido congelar la venta de software de este tipo. En esa misma línea, recientemente el comité de políticas tecnológicas de la Association for Computing Machinery (ACM), en el cual soy miembro del subcomité de IA y algoritmos, hizo una recomendación similar. ACM es la asociación de profesionales y científicos de informática más importante del mundo, con decenas de publicaciones y recursos que promueven la informática como ciencia y profesión.

El segundo aspecto es el de igualdad, equidad y justicia para aplicaciones que sí son éticas. Esto incluye evitar discriminación de género o minorías en aplicaciones que deciden sobre personas, o discriminación de productos o servicios en mercados digitales. Estos son sólo dos ejemplos que no incluyen otros sesgos de datos, algorítmicos o de uso, como los sesgos cognitivos mencionados anteriormente, que pueden afectar a sistemas de IA.

¿Cómo ve el panorama en Chile, donde se creó una comisión para este tema?

Chile va un poco atrasado en el tema. España, por ejemplo, ya tiene un plan estratégico de IA que fue publicado en 2019. Yo participé en el comité que diseño el plan de IA de Cataluña, que se publicó al comienzo de este año. Por lo que sé, actualmente en Chile se están recibiendo contribuciones para un futuro plan de inteligencia artificial. Pero el comité de diez personas está más orientado al impacto de la IA en la economía, y no en el uso seguro y ético de ella. De hecho, hay sólo dos investigadores de IA propiamente tal, y otros dos de temas afines.

¿Qué impacto puede tener el trabajo de este comité en España para otros países de la Unión Europea? ¿La experiencia y recomendaciones que recojan puede servir para países como Chile?

Todos los esfuerzos en la comunidad europea están bastante coordinados. La Unión Europea ya ha publicado muchas recomendaciones de la IA que son útiles para todo el mundo y que son el insumo inicial para el trabajo de este nuevo consejo, que tendrá como tarea principal apoyar la implementación del plan estratégico español. Espero que podamos generar documentos públicos que sean útiles no sólo para Chile, sino para otros países de Latinoamérica. De todos modos, siempre estoy disponible para aportar con mi conocimiento y experiencia. Por ejemplo, actualmente soy miembro del consejo asesor que tiene el Banco Interamericano de Desarrollo (BID) para el uso responsable de la IA en Latinoamérica y el Caribe (fAIrLAC).

¿Qué es lo que viene en este tema de la IA a futuro?

Espero que las aplicaciones de IA que afectan a los seres humanos sean como los medicamentos: reguladas para asegurarse de que son éticas, justas y seguras. Esta regulación puede variar de país a país porque la ética depende de la cultura, al igual que la definición de que es justo, no es universal aún. En 2017, la ACM publicó las siete propiedades que deberían tener los algoritmos responsables y transparentes. Sin embargo, la mayoría de los algoritmos no cumple ni una de ellas.

Incluso en aplicaciones que no necesitan ser reguladas, creo que los algoritmos responsables harán una diferencia en la adopción de ciertos productos, de forma similar a cómo sucede con los alimentos orgánicos hoy. Para ello, será necesario que las compañías compartan datos anónimos para que instituciones neutrales puedan validar afirmaciones, o auditar estas aplicaciones, del mismo modo que hoy se pueden hacer estudios de laboratorio con muestras de alimentos.

En este tema el IMFD puede tener un rol muy importante en Chile como institución independiente, para auditar y certificar cualquier software que tome o recomiende decisiones, sobre todo las que afectan a personas o la sociedad.