Apple pausa el escaneo ‘hash’ de imágenes en dispositivos tras preocupación de la sociedad civil

Read in English. Apple pausa el escaneo de imágenes tras preocupación de distintos actores. El 3 de septiembre, Apple confirmó que “tomará tiempo adicional en los próximos meses para recopilar información y realizar mejoras” antes de lanzar algunas funciones que anunció en agosto, las cuales plantearon serias preocupaciones sobre la privacidad entre activistas, especialistas en tecnología e incluso personal de Apple.

Una de las características planificadas, diseñada con la intención de combatir la distribución de material de abuso sexual infantil (MASI o CSAM por sus siglas en inglés), habría introducido un sistema para comparar las bases cifrada de identificadores, o hashes en inglés, de todas las imágenes configuradas para cargarse en iCloud con una base de datos de hashes de MASI conocidos, almacenados en el sistema operativo del dispositivo.

En una reunión con Access Now el 19 de agosto de 2021, el personal directivo de Apple confirmó que estas funciones no estaban programadas para ser incluidas en el lanzamiento inicial de iOS 15.0 planificado para las próximas semanas, sino que se implementarían en un actualización posterior de software iOS 15 durante los próximos meses.

“El compromiso formal de Apple de pausar esta función es un paso importante para restaurar la confianza en su enfoque de privacidad y seguridad”, dijo Carolyn Tackett, Deputy Advocacy Director en Access Now. “Esperamos un compromiso aún más fuerte por parte de Apple para dejar esta actualización en el estante para siempre. La introducción de este sistema en todos los dispositivos iOS debilitaría gravemente la reputación de Apple como defensor de la privacidad y líder en seguridad de dispositivos en todo el mundo, y abriría la puerta a un abuso extenso que, una vez abierto, sería casi imposible para Apple cerrarlo”.

“La seguridad infantil es extremadamente importante, al igual que el trabajo que realizan las autoridades para prevenir la producción de material de abuso sexual infantil (MASI) y detectar y eliminar su propagación en línea. El sector privado puede hacer su parte fortaleciendo la privacidad y la seguridad de todos los usuarios, incluidos niños y niñas, un grupo vulnerable cuyos derechos e intereses a menudo se pasan por alto. El cifrado de extremo a extremo contribuye a garantizar dicha privacidad y seguridad, y cualquier medida, como las propuestas por Apple, que eludan dicho cifrado, en última instancia, haría más daño que bien, y sería explotada para fines que van mucho más allá de aquellos para los que fueron implementados”, dijo Isedua Oribhabor, Business and Human Rights Lead en Access Now. 

“Agradecemos la decisión de Apple de adoptar un proceso más abierto y transparente para evaluar completamente el impacto significativo de estas funciones en la privacidad, la seguridad y la libertad de expresión. Esto es lo que debería haberse hecho desde el principio. La seguridad en línea es un objetivo que solo se puede lograr a través de la participación sostenida de múltiples partes interesadas que tenga en cuenta el impacto inmediato y a largo plazo de las innovaciones tecnológicas en los derechos humanos y las amenazas únicas que enfrentan las comunidades vulnerables de todo el mundo ”, dijo Raman Jit Singh Chima, Global Cybersecurity Lead at Access Now.

Esperamos que Apple dé un paso más allá de solo pausar la iniciativa, y se comprometa a eliminar permanentemente esta función de sus planes y mantener su liderazgo en la seguridad y privacidad de los dispositivos. También esperamos ver consultas sostenidas y en profundidad que incluyan la participación de organizaciones de la sociedad civil, especialistas técnicas/os, defensores/as de la privacidad, equipos de investigación, personas afectadas por sus tecnologías y comunidades vulnerables en particular. El foco debe ser empoderar a las personas que usan dispositivos, fortalecer la privacidad y la seguridad, y velar por un cifrado de extremo a extremo no negociable.