La mayor autonomía y una ausencia de control de los sistemas de Inteligencia Artificial, sumado a un creciente uso por parte de los consumidores, son algunos de los principales factores que obligan a analizar y proponer alternativas de regulación de la IA, para resguardar la protección de los usuarios de estas tecnologías de última generación.
Esta es una de las principales conclusiones del Seminario: Inteligencia Artificial, Responsabilidad Civil y Consumo. La actividad se desarrolló de manera virtual, el pasado 15 de enero, y tuvo como objetivo analizar si la normativa actual es suficiente, para hacer frente al impacto de la IA en esta área del Derecho.
En el encuentro participaron la directora del Departamento de Derecho Privado, Magdalena Bustos; la profesora del Centro de Estudios en Derecho, Tecnología y Sociedad (CE3), Danielle Zaror; la profesora del Departamento de Derecho Civil de la Universidad de Externado de Colombia, Silvana Fortich y el investigador del Programa de Derecho del Consumo de nuestra Escuela, Diego Martínez.
Ley y nexo de causalidad
La profesora, Magdalena Bustos, se refirió a la importancia del principio del control e intervención humana en todo el ciclo de los sistemas de Inteligencia Artificial, en particular, para determinar responsabilidad en materia civil.
Ante la presencia de una afectación o daño, la académica se refirió a la relevancia de la identificación del sujeto, a quien es atribuible el daño que causa la utilización de un sistema de IA. "Mientras más componentes digitales se utilicen, resulta más compleja la tecnología, y, por lo tanto, más difícil resulta localizar cuál fue el componente responsable", advirtió.
Señaló que "lo relevante es identificar el sujeto responsable del control de la IA, y que, en el ejercicio de ese control, o con ocasión de alguna falla de ese control, haya causado un daño. “¿Necesitamos reforma legal para ello?: "No necesariamente, sino solo en la medida de causalidad difusa y/o imposibilidad de terminar cuál de todos los intervinieres en el ciclo de la IA es quien por un hecho suyo causó el daño", concluyo.
La profesora Zaror se refirió a las diversas regulaciones que se han establecido para normar el uso de Inteligencia Artificial. "Ante la necesidad de aplicar esta tecnología de manera ética, muchos organismos internacionales han elaborado propuestas y un listado de principios", resaltó.
En su presentación la abogada abordó las diferencias entre las Declaraciones de Principios de la OCDE, la Unesco y la OMS, resaltando que sólo esta última hace referencia explícita a los aspectos de responsabilidad civil de su uso. También se refirió al concepto de IA elaborado por la UE, entidad que por cierto ha sido la primera en regular de manera amplia este tipo de tecnología. Al respecto la Profesora Zaror explicó "que la UE ha señalado que se trataría de una regulación a prueba de futuro lo que permitiría que sus reglas se adapten a los cambios tecnológicos". Para lograr este propósito la académica explicó que esta regulación se estructuró sobre dos pilares esenciales "el primero fue una exhaustiva definición de los roles que intervienen en el proceso y la definición de los riesgos los que han sido clasificados en cuatro niveles”.
El primer nivel es de riesgo mínimo o nulo y es aquí donde se encuentran la mayoría de las aplicaciones; en esa categoría se pueden encontrar aplicaciones de video juegos o filtros de spam, el segundo nivel es de riesgo limitado, son en general los generadores de contenidos como los chatbots. El tercer nivel es de alto riesgo y deben cumplir estrictos requisitos para su operación en la UE. Entre sus manifestaciones se encuentran las herramientas utilizadas para el diagnóstico de enfermedades, la conducción autónoma y la identificación biométrica. Por último, el cuarto nivel es de riesgo inaceptable el que se encuentra prohibido en la UE porque suponen una amenaza para la sociedad, los derechos o los medios de subsistencia de las personas. Entre ellos se encuentran los mecanismos de puntuación social, el reconocimiento de emociones en centros educativos o lugares de trabajos, etc.
Asimismo, se exploraron los alcances de los agentes de Inteligencia Artificial Generativa, que constituyen una evolución de la IA y un desafío para la responsabilidad civil, ya que cuentan con capacidad para actuar en forma autónoma y aprender en tiempo real, lo que se combina con la capacidad de razonar y tomar decisiones, de acuerdo con lo explicado por la investigadora de la Universidad de Externado, Silvana Fortich.
La abogada se preguntó si innovaciones como robots autónomos pueden ser considerados como seres inanimados, movidos por una fuerza externa, de acuerdo con lo estipulado por el Código Civil. "¿Será que podrían ser considerados como cosas inanimadas y la programación intrínseca que trae el agente de IA podría considerarse como una fuerza externa? Es así como los fundamentos de la responsabilidad civil se deben adaptar a una nueva realidad, donde, además, existen otros temas a analizar, como el riesgo para los usuarios y el rol de los desarrolladores", explicó.
Por su parte, el investigador, Diego Martínez, se refirió al impacto del uso de la IA para los derechos establecidos en la Ley del Consumidor. Al respecto, señaló que se advierten desafíos provenientes de la falta de previsibilidad y ausencia de control. "El impacto de la IA en las relaciones de consumo exige un equilibrio entre la innovación tecnológica y la protección de derechos. Si bien la IA presenta beneficios y preocupaciones, es esencial que los proveedores asuman su responsabilidad en el desarrollo y uso de estos sistemas, garantizando estándares de transparencia, no discriminación y seguridad", concluyó el expositor.
La actividad se dio en el marco del Proyecto de Internacionalización que se adjudicó el Departamento de Derecho Privado, que se titula "Problemas y desafíos que plantea la inteligencia artificial ante los principios y reglas generales del derecho de la responsabilidad civil y del derecho del consumo", el cual es dirigido por Magdalena Bustos y Gabriel Hernández.