El futuro de la IA es excitante y escalofriante a la vez. Si los avances de la IA siguen el ritmo de los últimos años, resulta extremadamente difícil aventurarse con pronósticos sobre la probabilidad de escenarios apocalípticos.
Sin embargo, en este debate nos consideramos optimistas. Siempre entendemos la IA como una herramienta con muchas limitaciones. La IA está presente en la medicina, ayudando a diagnosticar enfermedades de manera más rápida y precisa; en las ciencias sociales, analizando grandes volúmenes de datos para entender comportamientos humanos; y en las artes, creando obras que desafían nuestra percepción de la creatividad. En cada rincón del conocimiento, la IA tiene el potencial de ser una herramienta revolucionaria.
Un primer punto para analizar es qué tan probable es que tengamos IAs realmente inteligentes en un futuro cercano. La superinteligencia artificial se refiere a un futuro hipotético en el que las máquinas puedan realizar todas las tareas tan bien como los humanos. En ese momento, conocido como singularidad, la IA podría crear nuevas tecnologías y avanzar de forma autónoma.
Si bien no es claro que la hipotética singularidad vaya a ser beneficiosa o catastrófica, parece haber cierto consenso respecto de que estamos lejos de ese momento. Históricamente, las cualidades humanas de la IA, tales como "razonar" o "interpretar", se han exagerado. Esto ha llevado a malentendidos y expectativas irrealistas, causando en parte los dos inviernos de la IA en los años 60 y 90. Cada avance reaviva el debate sobre la superinteligencia, pero su logro requiere avances metodológicos que no parecen cercanos.
Nos gusta ver a la IA actual como excelentes actores que emulan razonar, ser empáticos, emocionarse e incluso inspirarse para crear bellas sinfonías u obras de arte. Que un interrogador no sea capaz de reconocer si está hablando con un humano o una IA no implica que esta sea inteligente o "piense", sino solo que es un excelente actor al emular la conducta humana.
Sin embargo, esto puede cambiar. Los recientes avances en la IA basada en agentes muestran que una concatenación de IAs con capacidades limitadas puede lograr procesos sofisticados de razonamiento con base en el enfoque de cadena de pensamiento (Chain of Thought, CoT), que delinea tareas complejas en una secuencia de pasos lógicos hacia una resolución final. Como nunca, científicos y desarrolladores en IA están trabajando en hacer que las máquinas razonen, por lo que el futuro en esta línea es impredecible.
No necesitamos una superinteligencia para imaginar escenarios apocalípticos; es más plausible que surjan de tecnología en manos equivocadas que de máquinas rebelándose contra sus creadores. La energía nuclear ilustra cómo un avance de investigación básica puede convertirse en un arma. Ese ejemplo fue utilizado por el premio Nobel de Física John Hopfield para advertir sobre los riesgos catastróficos de la IA si no se controla. En una carta abierta firmada por destacados expertos, se pidió una pausa de seis meses en su desarrollo.
Aunque los avances en IA buscan aplicaciones con fines positivos y de negocios, esto no excluye la posibilidad de escenarios apocalípticos. Por ejemplo, la misma tecnología aplicada al análisis de proteínas que llevó al premio Nobel de Química este año puede ser utilizada para el diseño de virus con mayor potencial pandémico. Aplicando técnicas de IA, es posible analizar mutaciones que podrían aumentar la capacidad del virus para evadir respuestas inmunitarias.
Dado que los principales avances de la IA son liderados por grandes compañías que buscan rentabilidad o desde la academia, el riesgo de escenarios apocalípticos es más bien bajo. Dado que el apocalipsis no es rentable, las grandes empresas detrás de los principales avances de la IA harán todo lo posible por evitar estos escenarios.
Finalmente, un escenario bastante probable es que los avances sean mucho más lentos de aquí en adelante, dándonos tiempo para ajustes y adopciones de tecnología de forma pausada. Recordemos que la famosa carta abierta fue publicada hace ya más de dos años y, pese a que la investigación en IA continuó, no vivimos los riesgos que esta carta advertía.
Si bien grandes empresas como Meta han liderado los artículos más citados en IA de 2024, la incapacidad de hacer rentables estos avances ha puesto mucha presión por alcanzar expectativas casi irrealistas. Compañías como OpenAI están en una posición difícil, donde incluso se especula con una posible bancarrota.
El impacto medioambiental y la vigilancia gubernamental en temas como privacidad de datos, sesgos y potenciales daños pueden frenar el llamado hype de forma violenta, llevándonos incluso a un nuevo invierno de la IA.
Un nuevo invierno no es un escenario que nos asuste. La adopción de la nueva tecnología en las empresas es un proceso lento que nos llena de desafíos apasionantes. Nos queda mucho por hacer, independientemente del ritmo de los avances.
A continuación, se discuten algunos puntos concretos que visualizamos como claves en el desarrollo de la IA en el país:
- Foco en aprendizaje multimodal: Los avances recientes en IA generativa se han centrado en enfoques multimodales, lo que ha abierto oportunidades emocionantes para el mundo empresarial. El business analytics del futuro inmediato evolucionará hacia la creación de perfiles integrales de los clientes, combinando datos sociodemográficos, historiales de compra y todas sus interacciones con la empresa, como reclamos, comunicaciones en redes sociales o interacciones en contact centers. Estos perfiles avanzados permitirán ofrecer recomendaciones más precisas y personalizadas, fomentando relaciones más rentables, significativas y duraderas con los clientes.
- Chatbots customizables y basados en agentes: Los clientes de las nuevas generaciones no quieren ser llamados por teléfono y buscan solucionar sus problemas con las empresas de la misma forma en que lo hacen en otros ámbitos: a través de internet. Los agentes de IA revolucionarán el servicio al consumidor, con bots más eficaces para dar respuesta a las dudas de los clientes, rescatar información relevante de documentos de la empresa y generar ofertas personalizadas que se ajusten a las necesidades de cada cliente.
- La segunda ola de IA generativa será el video: Yann LeCun, uno de los padres del aprendizaje profundo, ha sido particularmente enfático en resaltar que los LLM se encuentran acotados en su capacidad de tener una noción de mundo, por lo que no nos acercarán a la superinteligencia. En cambio, sugiere que los videos son una fuente de datos capaz de llevarnos a avanzar en la creación de máquinas verdaderamente inteligentes en un futuro no tan cercano. La IA basada en videos ha enfrentado más restricciones que otras fuentes debido a los costos de procesamiento, lo que ha ralentizado los avances.
- La desinformación por IA estará en todas partes, y nos acostumbraremos: El problema de la desinformación en temas políticos y otros de contingencia es, efectivamente, una gran desventaja que ha traído la IA. Sin embargo, nos iremos acostumbrando a confiar en ciertas fuentes y desconfiar de otras. Si bien la desinformación por IA generativa y los algoritmos automatizados de difusión de información para redes sociales seguirán causando problemas sociales, estos se irán mitigando a medida que la sociedad gane experiencia para lidiar con este tipo de contenidos.
- Avances en IA explicable y segura: La IA explicable (eXplainable AI, o XAI) es un área de investigación clave que, debido a presiones regulatorias, seguirá desarrollándose con fuerza en el futuro. Esta área permite comprender y explicar cómo los modelos de IA toman decisiones, "abriendo la caja negra". La transparencia y la interpretabilidad son fundamentales en áreas de negocio para generar confianza y cumplir con las regulaciones. Además, XAI ayuda a detectar sesgos en los modelos, mejorar la seguridad en la toma de decisiones automatizadas y facilitar la adopción de la IA en entornos críticos. Por otro lado, el Privacy-Preserving Deep Learning (PPDL) aborda la necesidad de desarrollar modelos de IA que protejan la privacidad de los datos. Técnicas como el aprendizaje federado permiten entrenar modelos sin comprometer la información sensible de los usuarios. Esto es clave en entornos donde los datos son altamente confidenciales, como la banca, la salud y el gobierno.
- Democratización de la IA: La competencia actual entre modelos comerciales y abiertos (open source), como los creados por Meta o DeepSeek, hará bajar significativamente los costos de aplicar IA generativa. Adicionalmente, el conocimiento también se democratizará a medida que más personas se formen en el uso de estas herramientas con fines de negocios y existan más casos de éxito de implementaciones de esta tecnología dentro de compañías.
- IA como prioridad nacional: Países como Estados Unidos o China han asumido la IA como una prioridad nacional, tanto así que el discurso sobre el riesgo geopolítico de la IA -control de la IA por parte de países democráticos versus países con regímenes autoritarios- está eclipsando el discurso sobre el riesgo existencial y los escenarios apocalípticos.
Si hablamos de riesgos de la IA, el mayor riesgo para Chile, en nuestra opinión, es llegar tarde a la fiesta. Si queremos ser competitivos como país, debemos ser flexibles y ágiles, entendiendo también que la enorme mayoría de las IAs se utilizan correctamente, es decir, con fines positivos como la medicina y la sustentabilidad, o con un foco en negocios. Llegar tarde significa aumentar la inequidad entre países, separándolos entre innovadores y pagadores de tecnología. Como país, podemos estar orgullosos de exportar este tipo de desarrollos en la región y, con el impulso adecuado, podemos liderar la carrera en Latinoamérica.
Desafíos éticos de la IA
La IA está transformando industrias y generando ventajas competitivas, pero su adopción no solo implica beneficios, sino también responsabilidades éticas. Es importante asegurar un uso de IA que sea transparente, justo y responsable. Los siguientes son los principales desafíos éticos en la IA empresarial:
- Sesgos algorítmicos: Los modelos pueden amplificar desigualdades si no se controlan los sesgos en los datos, por lo que se necesita un monitoreo constante para asegurar equidad en las decisiones.
- Privacidad y protección de datos: Como la IA maneja grandes volúmenes de información sensible, es importante garantizar el cumplimiento de las regulaciones y el consentimiento informado.
- Explicabilidad y transparencia: No se trata solo de que la IA funcione, sino de que también pueda explicarse para generar confianza. Los modelos tipo "caja negra" generan riesgos legales y reputacionales en las empresas.
- Impacto en el empleo: La IA reemplaza algunas tareas, pero también genera nuevas oportunidades; aquí es fundamental preparar a los trabajadores con planes de reentrenamiento.
- Sustentabilidad: Los modelos de IA requieren un gran consumo de energía, por lo que se debe optimizar su eficiencia y buscar alternativas más sostenibles.
Con la constante evolución de la IA y los posibles cambios regulatorios, estos aspectos cobrarán cada vez mayor importancia. A medida que las normativas sobre IA se vuelvan más estrictas, anticiparse a ellas será fundamental. Integrar principios de IA responsable no solo mitiga riesgos y previene problemas legales, sino que también se convierte en una ventaja competitiva. Lejos de ser un obstáculo, la ética representa un diferenciador estratégico en mercados altamente competitivos.
Como mensaje final, el potencial de la IA en Chile es enorme, pero su verdadero impacto dependerá de una implementación adecuada. Un enfoque ético no solo garantiza su sostenibilidad, sino que también maximiza sus beneficios para la sociedad. La adopción de la IA no debe limitarse a consideraciones técnicas o económicas; es fundamental que sea responsable y transparente. En última instancia, el futuro de la IA estará en manos de quienes la desarrollen con una visión ética y comprometida con el bienestar común.
Este artículo es un extracto adaptado del libro "Inteligencia artificial aplicada en Chile - Visión empresarial y casos de éxito" (RIL Editores, 2025; ISBN 978-956-01-1726-7), de autoría de Sebastián Maldonado, Carla Vairetti y Rodrigo Martínez. Más información en www.appliedai.cl. Se agradece también el aporte de Macarena McKay en la discusión sobre los desafíos éticos de la IA.