El último anuncio de Apple, involucra tener acceso a todas las fotografías del usuario, esto con la finalidad de identificar fotografías prohibidas a partir de una herramienta de Machine Learning llamada neuralMatch. Esta herramienta lo que hace es revisar todas las imágenes que se guardan en el iPhone y si es que encuentra contenido prohibido procede a denunciar.
A pesar que la intención de la empresa tecnológica es hacer frente a delitos de pederastia y abuso infantil, muchas personas cuestionan la seguridad y privacidad de los usuarios. Según informa Merca20, esta nueva herramienta comenzará a usarse en el iMessage de los dispositivos móviles, y cuando se encuentren imágenes delictivas, serán revisadas por supervisores humanos para luego reportarse a las autoridades en caso sea necesario.
Riesgo a la libertad
Las nuevas actualizaciones de Apple abren un gran dilema, sobre todo en temas de espionaje de algunos gobiernos como Rusia, China, etc. Ante la ola de críticas y preocupaciones, Apple indicó que esta tecnología se limita a detectar CSAM (material de abuso sexual infantil) almacenado en iCloud y no accederán a ninguna solicitud de ningún gobierno para expandirlo.
La firma recalcó que su lista de imágenes prohibidas solo funciona con base en los datos e imágenes proporcionados por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil.
A pesar de la respuesta de Apple, han surgido muchas dudas sobre esta nueva actualización y lo que podría representar para la seguridad de los usuarios en el futuro.