Encuentran falla en sistema de Apple

Encuentran falla en sistema de prevención de imagenes con abuso infantil de Apple

El  sistema para detectar abuso infantil en imágenes desarrollado por  Apple (CSAM-scanning system) ha registrado una importante  vulnerabilidad en la herramienta para comparar imágenes, denominada  NeuralHash, reportaron usuarios y programadores. De acuerdo con  Asuhariet Ygvar, usuario de la plataforma de desarrollo colaborativo  GitHub, cuya empresa matriz es  Microsoft, NeuralHash  no puede detectar ciertos retoques de imagen, tales como  rotación o  recorte.

Apple dio a conocer el plan de  Protección Expandida para Niños el pasado 5 de agosto, basado en tecnología para  limitar la distribución de material CSAM (material de abuso sexual de niños, por sus siglas en inglés). Con la ayuda de NeuralHash, herramienta especializada en  procesar información de imágenes para  identificar rasgos y expresiones faciales, la compañía indicó que podrá identificar imágenes CSAM antes de ser subidas en  iCloud. Antes de terminar en el  servicio de nube, esta herramienta mandará una  alerta que avisa sobre el tipo de material y la  fuente responsable de subirlo.

Te puede interesar: Crean muñeca con inteligencia artificial para reducir el aislamiento por Covid-19

Según el portal oficial de NeuralHash, este sistema utiliza una red compleja de  algoritmos para identificar hasta 3 mil 72  objetos digitales por segundo, con una precisión de 97%. Asimismo,  clasifica rasgos comunes a los objetos de manera dinámica gracias al  acceso a datos en dispositivos e internet. En el caso de  personas, compara los rasgos y expresiones faciales para determinar factores como  edad,  estado anímico y  lenguaje corporal en las  fotografías. Por ello, las plataformas responsables de  distribuir y alojar imágenes, especialmente en la nube, pueden implementar este servicio con objeto de prevenir CSAM o  material con características ilícitas en general.

CSAM-scanning system parte de una comparación de imágenes en tiempo real dentro de los dispositivos Apple y servicio de iCloud, cuyos contenidos son  revisados por un ser humano cuando se encuentran  coincidencias con actividades ilícitas que involucran menores de edad. Sin embargo, luego de realizar un estudio del código de NeuralHash en el lenguaje de programación  Python, Ygvar reportó la vulnerabilidad en el repositorio y los foros de GitHub. En ese sentido el programador agregó, debido a la  facilidad para recortar y rotar imágenes, Apple debe optar por  mejor seguridad antes de implementar NeuralHash en sus dispositivos  iOS y  maCOS.

Anteriormente el caso de Apple causó preocupaciones por el tema de la  privacidad, debido al sistema de  escaneo y verificación constante de mensajes cifrados de los usuarios.  Matthew Green, investigador de criptografía en la  Universidad Johns Hopkins, indicó que estas herramientas trabajan con  metadatos, y no perciben imágenes, motivo por el cual pueden  recolectar grandes cantidades de información sensible. Frente a las dificultades de  vulnerabilidad y privacidad de esta iniciativa, la  Fundación Frontera Electrónica (EFF) publicó una carta para solicitar que Apple  detenga la revisión los equipos e imágenes.