Inteligencia Artificial

Cinco consejos para detectar estafas creadas con IA

En 2024, las estafas con audios, videos y mensajes falsos incrementaron 220% en México.
sábado, 3 de mayo de 2025 · 21:44

CIUDAD DE MÉXICO (apro).- La empresa de ciberseguridad Kaspersky, compartió cinco consejos clave ante el aumento del 220% en engaños creados con inteligencia artificial (IA).  

En los últimos años, se han vuelto populares los deepfakes, que son videos, imágenes o audios generados por IA, que imitan de forma realista la apariencia y voz de una persona para lograr que diga o haga algo que nunca ocurrió; esta tecnología es capaz de engañar tanto a los humanos como a los algoritmos. 

De acuerdo con una encuesta de Kaspersky, el 72% de la población no sabe qué es un deepfake, y 62% asegura no saber cómo reconocer este tipo de contenido. 

Los deepfakes no siempre son malintencionados, sin embargo, su uso indebido en fraudes financieros, desinformación, estafas empresariales, extorsión, chantaje político, venganza, acoso y pornografía, plantea graves riesgos.

En 2024, las estafas con audios, videos y mensajes falsos incrementaron 220% en México, de acuerdo con el Panorama de Amenazas 2024 de Kaspersky.

Una de las trampas más populares es la suplantación de identidad de personajes famosos para engañar a las víctimas.

Este fraude tiene el objetivo de llamar la atención de internautas con la imagen de famosos que promocionan “productos milagro” o dinámicas. Los seguidores ingresan a sitios de internet donde registran sus datos personales y bancarios; a veces realizan compras de supuestas mercancías que nunca reciben.

Ante este panorama, los expertos de Kaspersky ofrecieron una guía de cinco pasos para identificar un video falso y evitar ser víctima de las modernas formas de estafa: 

Atención a ojos y boca: los deepfakes suelen fallar en replicar los movimientos naturales de los ojos y la boca. Si la persona parpadea muy poco o de forma extraña, o si los labios no están sincronizados con el audio, podría tratarse de un video manipulado con IA.

Observa la iluminación y las sombras: revisa si la luz en el rostro es similar a la que tiene el resto del cuerpo o el fondo del video. Las sombras que no coinciden o los brillos extraños pueden delatar una edición artificial.

Escucha el audio con atención: un tono de voz robótico, cortes bruscos o falta de locución natural son características de un audio generado o editado con IA.

Detecta señales como pixeles borrosos alrededor del rostro, bordes que cambian de forma o incluso gestos corporales poco naturales.

Verifica el origen del video: antes de compartirlo, revisa si proviene de una cuenta oficial. Consulta el perfil de la persona involucrada u otros medios confiables. Si el video únicamente circula en mensajes reenviados o cuentas sospechosas, podría ser falso. 

Los deepfakes se han vuelto un reto social por su impacto en la desinformación, manipulación de la opinión pública, noticias falsas, suplantación de identidad, daño reputacional, debilitamiento de la confianza pública, entre otros. 

Con el avance tecnológico, su creación ya no es exclusiva de personas con conocimiento técnico, sino que existen softwares gratuitos para la producción rápida de estas falsificaciones.

El equipo global de Investigación y Análisis de Kaspersky, concluyó que “en un mundo digital que avanza a gran velocidad, mantenerse informado sobre cómo evoluciona la tecnología ya no es opcional, es una forma de autoprotección”.

Comentarios