Inteligencia Artificial

Alertan de nueva estafa que utiliza IA para recomendar medicamentos y consejos de salud falsos

Algunos videos en redes sociales manipulan y generan desinformación en torno a la salud, al promover hábitos y productos sin sustento científico.
viernes, 11 de abril de 2025 · 10:59

CIUDAD DE MÉXICO (apro) .- A través de plataformas como TikTok e Instagram, circula una nueva estafa, en la que supuestos especialistas de la salud –generados con inteligencia artificial– recomiendan el consumo de productos “milagrosos” y prácticas que aseguran, ofrecen beneficios a la salud, advirtió ESET Latinoamérica, empresa de ciberseguridad.  

Desde que el uso de la Inteligencia Artificial (IA) generativa se volvió accesible, han surgido nuevas amenazas para la ciberseguridad, apuntó la empresa. Una de las más preocupantes son los videos, audios o imágenes creados con IA, que buscan hacerse pasar por personas reales; los “deepfakes”.  

“La generación de imágenes, video o audio falsificado para cometer estafas, robar información o desestabilización de la opinión pública, son moneda corriente hoy en día en el mundo del cibercrimen”, comentó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica. 

Recientemente, la empresa identificó una modalidad que manipula y genera desinformación en torno a la salud, al promover hábitos y productos sin sustento científico.  El equipo de investigación de ESET identificó más de 20 cuentas con este contenido en Instagram y TikTok. 

Los videos analizados muestran en una esquina de la pantalla, un “avatar” que finge ser una persona, y un especialista con más de una década de experiencia. Después ofrece consejos que inducen a la compra de los productos que venden. 

El equipo de ESET también observó casos en los que se promocionan medicamentos sin aprobación, utilizando “deepfakes” con la imagen de reconocidos profesionales, como le sucedió al doctor argentino Daniel López Rosetti, cuya imagen se usó para promover un medicamento falso en marzo pasado.  

 

¿Cómo identificar si se trata de un video falso, o “deepfake”?  

Una de las cuentas señalas por la empresa, @wellness_Daniela, acumula 714 seguidores en TikTok y sube videos de presuntas ginecólogas, dermatólogas y otras especialistas generadas con IA. En sus videos, se pueden identificar elementos a los que ESET recomienda poner atención para evitar ser engañado.  

Estos son los elementos para identificar una posible IA:  

  • Desincronización de la boca y labios, que no coinciden del todo con el audio. 
  • Expresiones faciales poco naturales o rígidas. 
  • Artefactos visuales y distorsiones, como bordes borrosos o cambios repentinos de iluminación. 
  • Voz robótica, artificial o con entonación demasiado uniforme. 
  • Cuentas de reciente creación, con pocos seguidores o sin historial relevante. 
  • Lenguaje exagerado, con frases como “cura milagrosa”, “los doctores no quieren que lo sepas” o “100% garantizado”. 
  • Afirmaciones que no tienen respaldo científico o que se basan en estudios o fuentes de poca reputación. 
  • Presión para comprar y generar sentido de urgencia en frases como “solo por tiempo limitado” o “pocas unidades disponibles”. 

Comentarios