Inteligencia Artificial
Google requerirá que publicidad política alterada con IA incluya una aclaración
La nueva regla entrará en vigor a mediados de noviembre, poco menos de un año antes de las elecciones presidenciales en Estados Unidos.Google pronto requerirá que la publicidad política que utilice inteligencia artificial vaya acompañada de una aclaración prominente en caso de que las imágenes o los sonidos hayan sido alterados sintéticamente.
La publicidad electoral generada con la ayuda de la inteligencia artificial que aparezca en YouTube y en otras plataformas de Google que cambie la apariencia de la gente o modifique eventos debe incluir una aclaración ubicada en algún lugar donde los usuarios puedan notarla, señaló la compañía en una actualización de su política de contenido político esta semana.
La nueva regla entrará en vigor a mediados de noviembre, poco menos de un año antes de las elecciones presidenciales en Estados Unidos. También afectará los anuncios de campaña previo a las elecciones del próximo año previstas en la India, Sudáfrica, la Unión Europea y otras regiones donde Google ya tiene un proceso de verificación para la publicidad política.
Aunque las imágenes, videos o clips de audio falsos no son nuevos en la publicidad política, las herramientas de inteligencia artificial generativa los están haciendo más fáciles y más realistas. Algunas campañas presidenciales en la contienda de 2024, incluida la del gobernador republicano de Florida, Ron DeSantis, ya utilizan la tecnología.
El Comité Nacional Republicano publicó en abril un anuncio generado completamente con inteligencia artificial que pretendía mostrar el futuro de Estados Unidos si el presidente Joe Biden es reelegido. Empleó fotografías falsas, pero realistas, que mostraban frentes de negocios tapiados, patrullas militares blindadas en las calles y oleadas de inmigrantes creando pánico.
En junio, la campaña de DeSantis compartió publicidad contra su oponente en las primarias republicanas, Donald Trump, que utilizaba imágenes generadas por inteligencia artificial del expresidente abrazando al experto en enfermedades infecciosas, el doctor Anthony Fauci.
El mes pasado, la Comisión de Elecciones Federales inició un proceso para regular potencialmente los "deepfakes" (ultrafalsos) generados por inteligencia artificial en publicidad política antes de las elecciones de 2024. Este tipo de contenido falso puede incluir la voz sintética de políticos diciendo algo que nunca dijeron.
La senadora estadounidense Amy Klobuchar, copatrocinadora del proyecto de ley pendiente que requeriría aclaraciones en la publicidad engañosa generada con inteligencia artificial, dijo en un comunicado que el anuncio de Google representaba un paso en la dirección correcta, pero que "no podemos depender únicamente de compromisos voluntarios".
Varios estados también han discutido o aprobado leyes relacionadas con la tecnología deepfake.
Google no prohibirá por completo la inteligencia artificial en la publicidad política. Las excepciones incluyen contenido sintético alterado o generado de una manera que no tenga consecuencias para las afirmaciones hechas en el anuncio. La inteligencia artificial también se puede utilizar en técnicas de edición como reajuste de tamaño de imágenes, recorte, color, corrección de defectos o edición de fondo.
La prohibición abarcará la publicidad electoral en las plataformas que sean propiedad de Google, sobre todo en YouTube, así como en sitios web externos que forman parte de la red de contenido de Google.
La acción de Google podría presionar a otras plataformas para que sigan su ejemplo. La empresa matriz de Facebook e Instagram, Meta, no tiene una norma que esté dirigida específicamente a la publicidad política generada por inteligencia artificial, pero ya restringe audios e imágenes "falsos, manipulados o transformados" que sean utilizados para propagar información falsa. TikTok no permite ningún anuncio político. Por su parte, X —antes Twitter— no respondió de momento a una solicitud de comentarios enviada por correo electrónico.