Meta
Brasil le prohíbe a Meta usar data para entrenar su Inteligencia Artificial
La agencia brasileña de protección de data determinó el martes que Meta, la compañía matriz de Instagram y Facebook, no puede usar data originada en el país para entrenar a su inteligencia artificial.CIUDAD DE MÉXICO (apro).- Meta puede procesar datos personales con el fin de entrenar sistemas de inteligencia artificial a través de sus productos: Facebook, Messenger e Instagram, tras la actualización de sus nuevas políticas de privacidad, lo que ha alertado a las autoridades brasileñas, las cuales determinaron que la compañía debía de suspender estas acciones.
El pasado 26 de junio, la empresa de Mark Zuckerberg actualizó su política de privacidad, pero esta no se dio de forma transparente y la información sobre el cambio no fue accesible y adecuadamente difundida, según determinó la Autoridad Nacional de Protección de Datos (ANPD, por sus siglas en portugués).
Según un análisis preliminar, no necesariamente existiría la expectativa de que toda esta información –incluida la compartida hace muchos años– se utilizaría para entrenar sistemas de IA, que ni siquiera se habían implementado cuando se compartió la información originalmente.
La ANPD determinó que las medidas de Meta limitan excesivamente el ejercicio de los derechos de los usuarios durante el procesamiento de sus datos. La autoridad señaló que las medidas de Meta representan riesgos para niños y adolescentes, lo que representa una violación a la Ley General de Protección de Datos, según dieron a conocer por medio de un comunicado.
Tras un análisis preliminar, dado el riesgo de daños graves y de difícil reparación para los usuarios –en Brasil Facebook tiene alrededor de 102 millones de usuarios activos–, la ANPD determinó que Meta deberá dejar de procesar los datos personales de sus usuarios o se hará acreedora de una multa diaria de 50 mil reales brasileños diarios (equivalente a 161 mil 15 pesos mexicanos) por cada día que se incumpla la sentencia.
La ANPD valoró que la empresa no proporcionó la información adecuada y necesaria para que los interesados ??fueran conscientes de las posibles consecuencias del tratamiento de sus datos personales para el desarrollo de modelos generativos de IA.