Pese a la muerte de dos de sus integrantes, The Beatles regresará a la historia con el estreno de “Now and then”, anunciada como la canción final del grupo, un tema que se pudo realizar a través de un casette que John Lennon le dedicó a Paul McCartney y el uso de la inteligencia artificial. Pese a estas noticias, que alegran no solo a fanáticos de la desaparecida banda británica, hay preocupación entre los expertos y figuras públicas por los riesgos que puede enfrentar la humanidad por el avance de esta tecnología y advierten incluso el “riesgo de extinción” para la humanidad.
Decenas de líderes de la industria de la inteligencia artificial, académicos y celebridades firmaron un documento publicado por el Centro para la Seguridad de la IA, donde sostienen que "mitigar el riesgo de extinción de la inteligencia artificial (IA) debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".
El académico del Departamento de Ingeniería Industrial de la Universidad de Chile, Juan Domingo Velásquez, explica que la invitación de los expertos “no es a frenar el desarrollo de la inteligencia artificial, como por ahí hemos escuchado en todos lados y se ha transformado en una paranoia colectiva. El punto es ‘mira, esto que estamos desarrollando va tan rápido, tremendamente rápido, que necesitamos un momento para ver las implicancias que ha de tener, cómo regularlo para sacar lo mejor'”.
“Todos estos tipos están diciendo ‘oye, tengamos ojo en esto, porque si esto no lo manejamos bien se nos puede salir de las manos’. Ahora ¿es suficiente con una regulación? Yo creo que no, aquí hay que acompañarlo de otras cosas: la regulación y la educación sobre lo que es la inteligencia artificial”, agrega Velásquez.
Por su parte, Néstor Becerra, director del Laboratorio de Procesamiento y Transmisión de Voz del Departamento de Ingeniería Eléctrica de la Universidad de Chile, plantea que “la declaración es muy escueta, pero seguramente se piensa en regular". No obstante, señala que "hay que tener cuidado cuando las grandes empresas hablen de prohibir los desarrollos de la IA. Puede ser una situación del tipo ‘no es necesario que ustedes lo hagan, pero yo lo haré’ o ‘ustedes no, yo sí’. La IA es muy demandante de recursos humanos y hay gran potencial de talento en América Latina”, asegura el profesor Becerra.
Sobre la posibilidad de frenar los avances en inteligencia artificial, Becerra añade que “es inútil y poco consecuente con promover el progreso científico y tecnológico de la humanidad, pero sí creo que es importante analizar esto desde una perspectiva top-down: analizar sus aplicaciones y, si es necesario, regular de modo ‘inteligente’, valga la redundancia, para no obstaculizar el desarrollo de la IA (...) Es como la física nuclear, en el sentido de prohibir las explosiones de bombas, pero no la investigación en temas como la fusión nuclear, que puede ser una fuente de energía prácticamente inagotable y limpia”, ejemplifica el académico.
Riesgos versus beneficios
El profesor Velásquez explica que “las tecnologías tienen sus riesgos. Piensa tú en la bomba atómica, la energía nuclear, pero estamos curando el cáncer, entonces, hay que ponerle alerta ahora ya”, sostiene. En esta línea, además, advierte que si bien se está regulando el tema de la inteligencia artificial, no se está haciendo con la celeridad que se necesita.
“Yo también comparto que si no lo regulamos correctamente, se nos puede escapar de las manos, pero también creo que si empezamos con una paranoia excesiva, que vamos a tener con Terminator 3 caminando por la calle, frenamos el avance. Creo que tenemos una oportunidad como generación dorada de decir: ok, esto es beneficioso, pero hay que definirlo de la siguiente forma y controlarlo, controlar esta bomba atómica para que no explote y nos sirva como energía nuclear”, dice Velásquez.
El profesor Néstor Becerra, en tanto, sentencia que “la inteligencia artificial es una tecnología disruptiva y su impacto debe ser analizado para que podamos adaptarnos, pero no tratar de prohibirla".