Opinión
Inteligencia artificial: entre la defensa y la amenaza
México necesita avanzar hacia marcos regulatorios que garanticen transparencia algorítmica y fortalezcan la educación digital. Pero también requiere instituciones que actúen, prevengan y generen confianza.Hablar de inteligencia artificial hoy es hablar de una herramienta que puede fortalecer al Estado o debilitar a la sociedad. No hay punto medio. Su impacto en la vida pública ya no es futuro, es el presente, y en México comienza a reflejarse en un terreno delicado: la confianza.
La capacidad de generar contenidos sintéticos, como los llamados deepfakes, pone en riesgo uno de los pilares de la comunicación: la presunción de veracidad. Cuando la ciudadanía duda de lo que ve y escucha no sólo se erosiona la información, se debilita la vida democrática.
El Global Cybersecurity Outlook 2026, del World Economic Forum, lo advierte con claridad: la inteligencia artificial está transformando la ciberseguridad, pero también amplificando los riesgos. Es un arma de doble filo. Permite anticipar amenazas, pero también facilita ataques más sofisticados, automatizados y difíciles de detectar.
Los datos son contundentes: el 94% de los especialistas considera que la IA será el principal factor de cambio en ciberseguridad, y el 87% identifica sus vulneraciones como la amenaza de más rápido crecimiento.
Pero el problema no es sólo técnico. Es estructural. Mientras la tecnología avanza a gran velocidad, la regulación, la gobernanza y la capacidad institucional se quedan atrás. Esa brecha es terreno fértil para abusos.
A ello se suma la opacidad. Hoy, en muchos casos, no sabemos cómo funcionan los algoritmos, qué decisiones toman ni bajo qué criterios procesan los datos personales. Sin transparencia no hay rendición de cuentas y sin ella la confianza pública se rompe.
Además, la recolección masiva de datos (muchas veces más allá de los fines originales) plantea riesgos reales de uso indebido. No es un tema menor: hablamos de posibles vulneraciones al derecho a la privacidad y a la protección de datos personales, reconocidos en nuestra Constitución.
La Organización de las Naciones Unidas ha sido enfática: el destino de la humanidad no puede quedar en manos de un algoritmo. Las alertas son claras: riesgos para la paz, afectaciones a derechos humanos, manipulación de procesos democráticos y erosión de la confianza en las instituciones.
Frente a este escenario, la clase política tiene una responsabilidad ineludible. No basta con mencionar la inteligencia artificial en el discurso. Es indispensable entenderla, saber cómo funciona, qué datos utiliza y cuáles son sus límites.
Usarla de manera transparente, con resultados concretos en servicios públicos, salud o seguridad, permite construir confianza. Pero usarla sin conocimiento o, peor aún, como herramienta de manipulación, puede generar un daño profundo.
Aquí entra un elemento clave: la ética. El riesgo no es la tecnología en sí, sino su mal uso. La desinformación, la vigilancia sin controles o la discriminación algorítmica no son escenarios hipotéticos, son riesgos reales que deben prevenirse con políticas públicas responsables.
También es fundamental abrir la puerta a expertos independientes. Las decisiones sobre inteligencia artificial no pueden basarse en ocurrencias ni en intereses políticos. Requieren evidencia, conocimiento técnico y visión de largo plazo.
Porque no debemos perder de vista lo esencial: la inteligencia artificial no es solo un asunto tecnológico, es un tema de derechos.
México necesita avanzar hacia marcos regulatorios que garanticen transparencia algorítmica y fortalezcan la educación digital. Pero también requiere instituciones que actúen, prevengan y generen confianza.
La inteligencia artificial debe ser una aliada para ampliar capacidades, no una excusa para distorsionar la realidad.
Al final, la tecnología puede evolucionar todo lo que quiera, pero la responsabilidad y la ética seguirán siendo profundamente humanas.