Meta
Brasil le prohÃbe a Meta usar data para entrenar su Inteligencia Artificial
La agencia brasileña de protección de data determinó el martes que Meta, la compañÃa matriz de Instagram y Facebook, no puede usar data originada en el paÃs para entrenar a su inteligencia artificial.CIUDAD DE MÉXICO (apro).- Meta puede procesar datos personales con el fin de entrenar sistemas de inteligencia artificial a través de sus productos: Facebook, Messenger e Instagram, tras la actualización de sus nuevas polÃticas de privacidad, lo que ha alertado a las autoridades brasileñas, las cuales determinaron que la compañÃa debÃa de suspender estas acciones.
El pasado 26 de junio, la empresa de Mark Zuckerberg actualizó su polÃtica de privacidad, pero esta no se dio de forma transparente y la información sobre el cambio no fue accesible y adecuadamente difundida, según determinó la Autoridad Nacional de Protección de Datos (ANPD, por sus siglas en portugués).
Según un análisis preliminar, no necesariamente existirÃa la expectativa de que toda esta información –incluida la compartida hace muchos años– se utilizarÃa para entrenar sistemas de IA, que ni siquiera se habÃan implementado cuando se compartió la información originalmente.
La ANPD determinó que las medidas de Meta limitan excesivamente el ejercicio de los derechos de los usuarios durante el procesamiento de sus datos. La autoridad señaló que las medidas de Meta representan riesgos para niños y adolescentes, lo que representa una violación a la Ley General de Protección de Datos, según dieron a conocer por medio de un comunicado.
Tras un análisis preliminar, dado el riesgo de daños graves y de difÃcil reparación para los usuarios –en Brasil Facebook tiene alrededor de 102 millones de usuarios activos–, la ANPD determinó que Meta deberá dejar de procesar los datos personales de sus usuarios o se hará acreedora de una multa diaria de 50 mil reales brasileños diarios (equivalente a 161 mil 15 pesos mexicanos) por cada dÃa que se incumpla la sentencia.
La ANPD valoró que la empresa no proporcionó la información adecuada y necesaria para que los interesados ??fueran conscientes de las posibles consecuencias del tratamiento de sus datos personales para el desarrollo de modelos generativos de IA.