Ciencia
Foro alerta sobre riesgos de la IA: replicar y amplificar desigualdades históricas
Expertos en México advierten que la inteligencia artificial, al carecer de agencia moral, reproduce y escala sesgos históricos, institucionalizando desigualdades, y llaman a crear marcos éticos y normativos que prioricen el control humano y el impacto social.CIUDAD DE MÉXICO (Proceso).– La inteligencia artificial (IA) dejó de ser una promesa futurista y comienza a ganar espacios en la vida contemporánea de los usuarios, donde intervienen el lenguaje, la producción de conocimiento, toma de decisiones, y una larga serie de factores que, al ser automatizados, podrían replicar patrones históricos de discriminación y vulnerar derechos humanos.
Bajo esa premisa se desarrolló el foro “La inteligencia artificial en la vida pública de México: declaración de ética y buenas prácticas para el uso y desarrollo de la IA”, donde expertos reflexionaron sobre los retos políticos, sociales y ambientales que rodean el imperante avance de dicha tecnología.
Autoridades y analistas se reunieron el 29 de enero último en el auditorio Jaime Torres Bodet del Museo Nacional de Antropología; los asistentes coincidieron en que la IA carece de agencia moral; no decide por sí misma, pero sí replica, automatiza y amplifica modelos existentes de desigualdad. Si los datos están sesgados –ya sea por género, clase, raza o territorio– los algoritmos los reproducen, y, en lugar de corregir injusticias, pueden institucionalizarlas a gran escala.
Regulación en crisis
Para María Funes Argüello, doctora en Ciencias Biomédicas y coordinadora de Investigación Científica de la Universidad Nacional Autónoma de México (UNAM), el uso responsable de la IA no puede desligarse de su impacto social ni quedar en manos exclusivas del mercado.
“La IA no duda ni contrasta hipótesis, por eso, sin controles humanos, existen riesgos de aceptar sus resultados como verdades sin cuestionarlas, y es sumamente peligroso. Se necesitan marcos normativos que regulen tanto su desarrollo como su uso en instituciones educativas y de investigación”, consideró.
El manejo de la IA en los salones de clase ha generado cuestionamientos sobre el sentido de la educación, especialmente en el nivel superior, ya que la tecnología se está convirtiendo en un factor central dentro de la formación de los jóvenes.
Un informe reciente de la empresa de análisis Gallup da cuenta que alrededor de 79% de personas de la Generación Z usan plataformas de IA como ChatGPT en su vida diaria, y casi la mitad lo hace de manera semanal.
Este escenario abre interrogantes sobre el significado de aprender y la redefinición del mérito académico, por lo que incluso plataformas educativas han tenido que implementar herramientas de IA, con sus respectivos cuidados y compromiso ético, para mantenerse a la vanguardia y lograr un balance entre las nuevas generaciones, las formas de aprendizaje y el uso del algoritmo.
Reducción de empleos y menos inversión
La automatización también amenaza con desplazar empleos, particularmente en sectores administrativos y artísticos. Ante ese panorama, los asistentes al foro hicieron un llamado a no olvidar la función social de la tecnología, ya que su eficiencia no puede justificarse a costa de la dignidad laboral.
?? El medio Quartz despidió a casi toda su redacción. Hoy, sus noticias las escribe una IA que copia a otra IAs.
El resultado: errores, citas falsas y un periodismo vacío pero “óptimo para el SEO”.
Profundiza en este tema aquí ?? https://t.co/fvWoMtnWOF pic.twitter.com/5KxoO9T7sH — Fundación Gabo (@FundacionGabo) January 30, 2026
En el encuentro también se advirtió del contexto donde las empresas privadas lideran en inversión y desarrollo de la IA, mientras el Estado enfrenta retos importantes. En diciembre de 2025, la presidenta Claudia Sheinbaum anunció un incremento de siete mil millones de pesos al presupuesto de Ciencia y Tecnología, pero la cantidad representa 32% menos que en 2015, cuando se le destinó el mayor recurso equivalente a 94.5 mil millones de pesos.
Violencias, dilemas éticos e impacto ambiental
Otro eje del foro fue la privacidad, protección de datos y violencia de género amplificada por algoritmos, como la generación de imágenes sexualizadas sin consentimiento, vigilancia masiva y la normalización de prácticas que vulneran derechos humanos.
La actuación humana, puntualizaron los expertos, “siempre es el punto de partida”. La IA no sustituye la responsabilidad de decisiones críticas tomadas por los seres humanos, ni la de los dilemas éticos que conllevan.
“Si lo que empezamos a regular es la herramienta, nos vamos a equivocar en el mayor número de casos. Los ‘deepfake’ o ‘deeporn’, las creaciones de desnudos a través de IA son tan graves (...) porque no se logra distinguir si es real. Pero es la conducta humana la que hay que sancionar a escala penal, no la herramienta, y el Estado mexicano debe tener un plan para afrontar este problema”, consideró Pablo Pruneda, investigador del Instituto de Investigaciones Jurídicas de la UNAM.
También debemos tener cuidado en no generar normas que restrinjan la tecnología -añadió- y que en última instancia se vuelvan ineficaces, porque entonces, en vez de fortalecer el Estado de derecho, lo debilitan.
Recientemente la Secretaría de las Mujeres anunció que tiene los primeros acuerdos con plataformas como Meta, YouTube, Google y TikTok para combatir la violencia de género en espacios digitales.
“Grok”, una IA de X (antes Twitter), ha sido usada para manipular y difundir imágenes explícitas de mujeres sin su consentimiento, lo que ha generado numerosas polémicas. Sin embargo, empresas como Google y Apple aún tienen disponibles decenas de aplicaciones de este tipo en sus tiendas digitales.
A las problemáticas del uso de IA, se suma un aspecto poco mencionado: el impacto ambiental que genera.
La IA depende de infraestructuras físicas (centros de datos, hardware) que consumen grandes cantidades de energía, agua y materiales como litio y cobalto generando emisiones de CO2 por la electricidad y la fabricación, así como contaminación del aire por los generadores diésel y los procesos de minería.
Educación y futuro
Los expertos coincidieron en que es necesaria la alfabetización digital para cualquier regulación, mientras que apostar por la educación pública se vuelve indispensable para que la ciudadanía comprenda y participe en las decisiones sobre la IA.
La batalla por regular la inteligencia artificial no sólo es tecnológica, sino una disputa por el sentido de lo público, de los derechos y del futuro. Por ello, la pregunta ya no es si la IA debe usarse en la vida cotidiana, sino cuestionar bajo qué principios, límites y fines.
“No se trata de crear sistemas totalmente desvinculados del ser humano, sino diseñar tecnologías independientes, desde la corresponsabilidad y el diálogo interdisciplinario. La IA tiene un enorme potencial para transformar sectores clave, (...) pero el tema es cómo implementar estas herramientas. Deben activarse mecanismos reforzados de evaluación humana, así como responsabilidades institucionales”, concluyó Funes Argüello.