¿Por qué Apple quiere revisar las imágenes de iCloud de sus usuarios?
Con esta medida, Apple contribuye a la lucha contra el abuso infantil, así lo ha reportado la firma a través de un comunicado oficial
Por DAVID SALCEDO HERNÁNDEZ
- Con esta medida, Apple contribuye a la lucha contra el abuso infantil, así lo ha reportado la firma a través de un comunicado oficial
A partir del 2022, todas las fotos de los usuarios de Apple que estén en sus dispositivos serán procesadas por una base de datos de imágenes para verificar que no incluyan Contenido de Abuso Sexual a Menores (CSAM por sus siglas en inglés) y alertar a las autoridades en el caso de que existan, de acuerdo con un comunicado de la compañía.
“iOS y iPadOS utilizarán nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario. La detección de CSAM ayudará a Apple a proporcionar información valiosa a las fuerzas del orden sobre las colecciones de CSAM en Fotos de iCloud”, señala el documento.
ESTE ES EL LISTADO DE LOS PRODUCTOS OBSOLETOS DE APPLE. TE DECIMOS QUÉ HACER CON ELLOS
Sin embargo, esto no quiere decir que Apple invadirá la privacidad de los usuarios, ya que el sistema que utilizarán para escanear las imágenes que sean enviadas (más no las almacenadas) a iCloud, desde iPhone, iPad y Mac, será través de un criptograma llamado NeuralHash.
Este programa no procesa imagen por imagen, como lo haría una persona, pues en vez de eso selecciona un conjunto de fotos y las compara con la base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés).
¿AFECTARÁ LA PRIVACIDAD DE LOS USUARIOS?
Cuando algún usuario tome alguna foto y esta esté a punto de ser lanzada a iCloud, se activará el programa, el cual le asignará un número único para poderla comparar con NCMEC, “este proceso de coincidencia está impulsado por una tecnología criptográfica llamada intersección de conjuntos privados, que determina si hay una coincidencia sin revelar el resultado”.
Esto quiere decir que la tecnología que utilizan únicamente selecciona ciertos patrones de determinadas imágenes, pero solo las interpreta si coinciden con la base de datos del Centro Nacional para Niños Desaparecidos y Explotados, en caso contrario las desecha y las deja guardadas en la nube.
Así, por ejemplo, si tienes fotos de tus mascotas, vacaciones o alguna selfie, el NeuralHash no sabrá interpretarla y la dejará almacenada en la nube, a no ser que contenga CSAM.
De acuerdo con un resumen técnico, las pruebas de la nueva función comenzaron el pasado jueves 5 de agosto en pequeños reportes preseleccionados, pero posteriormente llegará a todos los usuarios de iOS 15, iPad 15 y macOS Monterey con una actualización, la cual estará disponible el próximo año.
Además, la actualización contará con una nueva herramienta en los mensajes, ya que podrá advertir a sus usuarios (especialmente a los infantes) cuando reciban o envíen fotos sexualmente explícitas.
“Al recibir este tipo de contenido, la foto se verá borrosa y se advertirá al niño, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto. Como precaución adicional, también se le puede decir al niño que, para asegurarse de que está seguro, sus padres recibirán un mensaje si lo ven… El niño será advertido antes de que se envíe la foto y los padres pueden recibir un mensaje si el niño decide enviarlo”, indica el comunicado.
.