Apple
Apple detalla funcionamiento de escaneo de imágenes en iCloud para detectar abuso infantil
La tecnologÃa implementada en Messages es diferente de la que Apple va a emplear en iCloud para analizar el material de abuso sexual infantil.MADRID (Portaltic/EP).- Apple detalló las dos tecnologÃas que empleará para reducir la distribución de material de abuso sexual infantil en su aplicación Messages y en su servicio en la nube iCloud, ambas anunciadas la semana pasada y diferentes entre sÃ.
Messages alertará a los usuarios de la recepción y el envÃo de material sexualmente explÃcito en la nueva caracterÃstica de Seguridad de la Comunicación. Estará disponible para las cuentas de niños vinculadas al plan 'En Familia', y empleará el análisis mediante aprendizaje automático en el propio dispositivo.
Será una caracterÃstica opcional, que los padres o tutores deberán habilitar, como explica la compañÃa en una serie de 'Preguntas y respuestas' sobre las nuevas protecciones infantiles que va a implementar. Asegura que no acceden al contenido la comunicación, ni reciben ningún tipo de información de ella.
Apple subraya que la encriptación de extremo a extremo se mantiene aún con la nueva caracterÃstica activada. "Si la caracterÃstica se ha habilitado para la cuenta del niño, el dispositivo evaluará las imágenes en Messages y presentará una intervención si se determina que la imagen es sexualmente explÃcita", explica la compañÃa.
Los padres o tutores recibirán, además, una notificación (también opcional) cada vez que el niño envÃe o reciba una imagen con contenido sexual explÃcito, pero esto ocurre después de que el niño reciba una advertencia en la que se informa que, si procede a ver dicha imagen, sus padres serán notificados.
La tecnologÃa implementada en Messages es diferente de la que Apple va a emplear en iCloud para analizar el material de abuso sexual infantil, que sólo funcionará con las fotos que el usuario "elige subir" a este almacenamiento en la nube, no con todas las imágenes allà guardadas ni con las que están en el dispositivo.
El sistema buscará coincidencias entre las imágenes que el usuario sube a iCloud Fotos y las que se encuentran en la base de datos de organizaciones policiales o de seguridad infantil. Pero para ello no analizará las imágenes como tal, sino 'hashes', un tipo de huella digital.
"Estos 'hashes' son cadenas de números que representan imágenes de material de abuso sexual infantil conocidas, pero no es posible leer o convertir esos 'hashes' en las imágenes del material de abuso sexual infantil en las que se basan", explican desde Apple.
Y añade: "Utilizando nuevas aplicaciones de criptografÃa, Apple puede utilizar estos 'hashes' para obtener información únicamente sobre las cuentas de iCloud Fotos que almacenan colecciones de fotos que coinciden con estas imágenes de material de abuso sexual infantil conocidas, y luego sólo puede obtener información sobre las fotos que se conocen como material de abuso sexual infantil, sin conocer ni ver otras fotos".
Este sistema sólo funciona con los 'hashes' del material de abuso sexual infantil, ya que, según la compañÃa, está diseñado para evitar que analice cualquier otro tipo de contenido subido a iCloud Fotos, y tampoco admite la adición de imágenes de otro tipo.