Apple planea revisar dispositivos en busca de abuso infantil

Apple

Una de las razones por las que millones de usuarios en el mundo eligen los dispositivos de Apple es por las garantías de privacidad que da la marca. Desde sus comienzos la compañía se ha caracterizado por ser una plataforma cerrada para una supuesta mayor seguridad a sus usuarios. Pero ahora la marca está en medio de la polémica porque planea revisar las imágenes en los iPhone y en iCloud en busca de pornografía infantil.

De acuerdo con información de Financial Times, Apple planea escanear las fotografías almacenadas en su nube y sus teléfonos inteligentes para encontrar imágenes de abuso infantil con la intención de ayudar a las fuerzas del orden en investigaciones penales. 

Sin embargo, la noticia está generando polémica e, incluso, puede abrir la puerta a una de las mayores demandas legales y gubernamentales relacionadas con el manejo de datos de los usuarios. 

Según los datos de la Financial Times, el escaneo de las imágenes se realizará mediante un sistema llamado neuralMatch que "alertará proactivamente a un equipo de revisores humanos si cree que se detectan imágenes ilegales, quienes luego se pondrán en contacto con las autoridades si el material puede ser verificado".

Hay que decir que neuralMatch fue entrenado con 200 mil imágenes conocidas de abuso sexual infantil las cuales fueron proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados, es decir que ese contenido servirá como base para comparar las fotografías.

¿Cómo funcionará?

La tecnología se lanzará primero en los Estados Unidos. Según las personas que conocen los planes de la compañía, cada foto cargada en iCloud en aquel país recibirá un "vale de seguridad", que indica si es sospechosa o no.

"Una vez que un cierto número de fotos se marcan como sospechosas, Apple permitirá que todas las imágenes se descifren y, si aparentemente son ilegales, se transmitirán a las autoridades pertinentes", publicó el Financial Times.

Recordemos que Apple ya compara los archivos de iCloud con las imágenes conocidas de abuso infantil, como lo hace cualquier otro proveedor importante de servicios en la nube. Sin embargo el sistema neuralMatch iría más allá, permitiendo el acceso central al almacenamiento local.   

El profesor y criptógrafo de la Universidad John Hopkins, Matthew Green, expresó su preocupación sobre el sistema en Twitter:

"Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas. ¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?".

Añadió: "Incluso si crees que Apple no permitirá que estas herramientas se utilicen incorrectamente, todavía hay mucho de qué preocuparse. Estos sistemas se basan en una base de datos de 'hash de medios problemáticos' que usted, como consumidor, no puede revisar".  

Y es que, aunque como ya mencionamos, el proceso de revisión ya existe, extender el alcance del sistema, a pesar de estar orientado al abuso infantil, podría abrir la puerta a intentar detectar otros delitos, lo que supone una preocupación particular en países como China. Aun así Apple defiende sus intenciones y dijo que está dispuesta discutir el tema con algunos académicos estadounidenses. Además dijo que planea compartir más sobre el sistema en los próximos días.  

La actualización se implementará en el futuro, junto con varias otras características de seguridad para niños, incluidos nuevos controles parentales que pueden detectar fotos explícitas en los mensajes de los niños.  

Finalmente recordemos que Apple tuvo un famoso enfrentamiento con el FBI en 2016 después de que se negó a desbloquear un iPhone perteneciente al hombre detrás del ataque terrorista de San Bernardino. Por lo que ahora se espera que aclara cómo es que su nuevo sistema no va en contra de las políticas de defiende desde sus origines.

Comparte