Apple detecta fotos de abusos sexuales a menores en sus dispositivos

Los cambios “representan una desviación significativa de los protocolos de seguridad y privacidad establecidos desde hace tiempo”, dijo el CDT.

La empresa informática Apple presentó el jueves (05.08.2021) nuevas herramientas para detectar con mayor eficacia las imágenes de contenido sexual que involucran a niñas o niños en sus iPhones, iPads y servidores de iCloud en Estados Unidos, lo que despertó la preocupación de los defensores de la privacidad en línea.

“Queremos ayudar a proteger a los niños de los depredadores que utilizan las herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de la pornografía infantil”, dice la empresa en su página. La empresa utilizará herramientas de encriptación que analizarán y cotejarán las imágenes que considere sospechosas con un número específico para cada una de ellas.

También tiene previsto comparar las fotos subidas a iCloud con las almacenadas en un archivo gestionado por el National Center for Missing and Exploited Children (NCMEC), una empresa privada estadounidense que trabaja para reducir la explotación sexual de los niños. Apple dice que no tiene acceso directo a las imágenes. Cuando una foto se parece a una del archivo, Apple la examina manualmente, desactiva la cuenta del usuario si es necesario y envía un informe al NCMEC.

La compañía también está diseñando nuevas herramientas para avisar a las niñas, niños y a sus cuidadores o tutores que tengan una cuenta para compartir en familia cuando se les envíen fotos explícitas en la app Mensajes. Las fotos aparecerán borrosas y el niño será redirigido a los mensajes de prevención con una advertencia de que no debe abrir la imagen.

Las familias pueden elegir recibir un mensaje cuando su hijo abra las imágenes. Se establecerán protecciones similares para los niños que envíen fotos sexualmente explícitas. Apple también mejorará la información de prevención que el asistente de voz Siri emite cuando los niños o sus seres queridos piden consejo sobre determinadas situaciones.

Te puede interesar



Siri y Search también pueden intervenir cuando los usuarios busquen imágenes de pornografía infantil, advirtiéndoles de que este tipo de contenido es problemático. Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos del iPhone, iPad, iWatch e iMac.

Críticas a la decisión de Apple
Los cambios “representan una desviación significativa de los protocolos de seguridad y privacidad establecidos desde hace tiempo”, dijo el Centro para la Democracia y la Tecnología (CDT). “Apple está sustituyendo su sistema de mensajería encriptada de extremo a extremo por una infraestructura de vigilancia y censura que será vulnerable al abuso y al mal uso, no sólo en Estados Unidos sino en todo el mundo”, dijo Greg Nojeim, del CDT, en un mensaje enviado a la AFP.

“La explotación infantil es un problema grave, y Apple no es la primera empresa tecnológica que cambia su postura sobre la privacidad en un esfuerzo por combatirla”, dijeron India McKinney y Erica Portnoy, de la ONG de libertad en Internet Electronic Frontier Foundation. Pero incluso cuando se desarrolla con la mejor de las intenciones, un sistema diseñado para detectar la pornografía infantil “abre la puerta a nuevos abusos”, temen en una entrada del blog. Lo único que hace falta es que Apple modifique un poco la configuración para buscar otro tipo de contenidos o para escanear no sólo las cuentas de los niños, sino las de todos, añadieron.

ama (afp, ap, reuters,dw)


Continúa leyendo

[anuncio_b30 id=10]


Continúa leyendo

[anuncio_b30 id=10]