Encuentran falla en sistema de Apple

Encuentran falla en sistema de prevención de imagenes con abuso infantil de Apple

El  sistema para detectar abuso infantil en imágenes desarrollado por  Apple (CSAM-scanning system) ha registrado una importante  vulnerabilidad en la herramienta para comparar imágenes, denominada  NeuralHash, reportaron usuarios y programadores. De acuerdo con  Asuhariet Ygvar, usuario de la plataforma de desarrollo colaborativo  GitHub, cuya empresa matriz es  Microsoft, NeuralHash  no puede detectar ciertos retoques de imagen, tales como  rotación o  recorte.

Encuentran falla en sistema de Apple

Te puede interesar: Crean muñeca con inteligencia artificial para reducir el aislamiento por Covid-19

Según el portal oficial de NeuralHash, este sistema utiliza una red compleja de  algoritmos para identificar hasta 3 mil 72  objetos digitales por segundo, con una precisión de 97%. Asimismo,  clasifica rasgos comunes a los objetos de manera dinámica gracias al  acceso a datos en dispositivos e internet. En el caso de  personas, compara los rasgos y expresiones faciales para determinar factores como  edad,  estado anímico y  lenguaje corporal en las  fotografías. Por ello, las plataformas responsables de  distribuir y alojar imágenes, especialmente en la nube, pueden implementar este servicio con objeto de prevenir CSAM o  material con características ilícitas en general.

Noticia Relacionada

CSAM-scanning system parte de una comparación de imágenes en tiempo real dentro de los dispositivos Apple y servicio de iCloud, cuyos contenidos son  revisados por un ser humano cuando se encuentran  coincidencias con actividades ilícitas que involucran menores de edad. Sin embargo, luego de realizar un estudio del código de NeuralHash en el lenguaje de programación  Python, Ygvar reportó la vulnerabilidad en el repositorio y los foros de GitHub. En ese sentido el programador agregó, debido a la  facilidad para recortar y rotar imágenes, Apple debe optar por  mejor seguridad antes de implementar NeuralHash en sus dispositivos  iOS y  maCOS.

Anteriormente el caso de Apple causó preocupaciones por el tema de la  privacidad, debido al sistema de  escaneo y verificación constante de mensajes cifrados de los usuarios.  Matthew Green, investigador de criptografía en la  Universidad Johns Hopkins, indicó que estas herramientas trabajan con  metadatos, y no perciben imágenes, motivo por el cual pueden  recolectar grandes cantidades de información sensible. Frente a las dificultades de  vulnerabilidad y privacidad de esta iniciativa, la  Fundación Frontera Electrónica (EFF) publicó una carta para solicitar que Apple  detenga la revisión los equipos e imágenes.



También podría interesarte
Encuentran falla en sistema de Apple

¡Tortilla en mano! Captan a mujer que prepara tacos justo en el vagón del metro

Encuentran falla en sistema de Apple

Silueta de la Muerte es vista en un hospital de Sonora

Encuentran falla en sistema de Apple

5 series sobre asesinos seriales que puedes ver en Netflix



Loading...