deepfakes

Consejo Asesor insta a Meta a actualizar sus políticas sobre "deepfakes" de desnudos

El Consejo ha revisado dos casos de imágenes explícitas generadas con IA sin el consentimiento de las dos mujeres que aparecen desnudas, una figura pública de India y otra de Estados Unidos, que se publicaron en Instagram y Facebook
jueves, 25 de julio de 2024 · 14:33

MADRID (Portaltic/EP) -El Consejo Asesor de Contenido de Meta considera que la manera legítima de combatir la creación y distribución de imágenes sexualmente explícitas generadas con inteligencia artificial (IA) sin consentimiento es eliminarlas y no etiquetarlas en las redes sociales, e insta a realizar cambios en su clasificación y definición para facilitar su denuncia.

El Consejo ha revisado dos casos de imágenes explícitas generadas con IA sin el consentimiento de las dos mujeres que aparecen desnudas, una figura pública de India y otra de Estados Unidos, que se publicaron en Instagram y Facebook, y recoge en su blog oficial.

Las imágenes acabaron siendo eliminadas, e incorporadas a una base de datos que permite encontrar coincidencia de archivos multimedia para su retirada automática, como ocurrió con el caso de la imagen protagonizada por la mujer estadounidense. En el otro, se refiere la denuncia por parte de un usuario y la posterior apelación a Meta por fallar las revisiones automáticas.

Ambas imágenes se enmarcan en la categoría de 'Photoshop sexualizado despectivo', que se prohíbe en las plataformas de Meta según sus políticas, y que se refiere a "imágenes manipuladas que se sexualizan de maneras que probablemente no sean deseadas por el objetivo y, por lo tanto, se perciban como despectivas".

El Consejo, no obstante, considera que esta definición no es lo suficientemente clara para que la comprendan los usuarios y que sería conveniente que en lugar de 'despectivo' se indicara que se trata de contenido no consensuado. También convendría cambiar la palabra 'Photoshop' por otro que abarque mejor los contenidos sintéticos generados por IA.

Asimismo, considera que hay un problema con la clasificación de este término en las normas comunitarias de las redes sociales. Cree que este tipo de imágenes deberían formar parte de las políticas sobre 'Explotación Sexual de Adultos' en lugar de recogerse en 'Acoso e Intimidación' porque va a más allá y ayudaría a los usuarios a denunciar estos contenidos.

De manera general, entiende que la forma de combatir la publicación y distribución de este tipo de publicaciones es la eliminación, ya que si se etiquetan para indicar que se trata de contenido sintético, no se evitan los daños que generan en las personas afectadas, principalmente mujeres y niñas; "los daños surgen de compartir y ver estas imágenes, y no solo de engañar a las personas sobre su autenticidad", concluye.

Más de

Comentarios