Según se informa, Apple escaneará su iPhone en busca de imágenes de abuso infantil

Chikena / Shutterstock.com

Según informes creíbles, Apple planea comenzar a instalar software en iPhones en los Estados Unidos que escaneará automáticamente las fotos locales en busca de imágenes de abuso infantil. Según los informes, Apple solo escaneará las fotos cargadas en iCloud con esta tecnología, al menos al principio.

Actualización: Apple ha confirmado gran parte de este informe en un documento detallado .

¿Qué está haciendo Apple?

Los informes de los planes de Apple se originaron en The Financial Times y el profesor Matthew Green de la Universidad Johns Hopkins  , ambos fuentes generalmente confiables. Por supuesto, hasta que Apple confirme que este es el caso, siempre existe la posibilidad de que esto no suceda. Según los informes, Apple demostró el plan a algunos académicos estadounidenses a principios de esta semana.

Según los informes, Apple utilizará un sistema que llama «neuralMatch» para escanear iPhones estadounidenses en busca de imágenes de abuso infantil.

Básicamente, un sistema automatizado alertaría a un equipo de revisores humanos si cree que se detectan imágenes ilegales. A partir de ahí, un miembro del equipo revisaría las imágenes y se pondría en contacto con la policía.

Técnicamente, esto no es nada nuevo: los sistemas de almacenamiento de fotos basados ​​en la nube y las redes sociales ya realizan este tipo de escaneo. La diferencia aquí es que Apple lo está haciendo a nivel de dispositivo. Según Matthew Green, inicialmente solo escaneará las fotos cargadas en iCloud, pero realizaría ese escaneo en el teléfono del usuario. “Inicialmente” es la palabra clave allí, ya que muy bien podría usarse para escanear todas las fotos localmente en algún momento.

Relacionado:  Si puedes hackear ExpressVPN, te darán $100,000

Se supone que esto hace que el sistema sea menos invasivo, ya que el escaneo se realiza en el teléfono y se envía de regreso solo si hay una coincidencia, lo que significa que no todas las fotos que subes están sujetas a los ojos de extraños.

Según los asistentes a la sesión informativa, a cada foto subida a iCloud se le da un «vale de seguridad», que indica si es sospechosa o no. Cuando una cierta cantidad de imágenes se marcan como sospechosas, Apple las descifrará y las enviará a las autoridades si se encuentra algo que involucre abuso infantil.

¿Cómo diferenciará el sistema entre imágenes de abuso infantil y otras imágenes? Según el informe, se ha probado en 200.000 imágenes de abusos sexuales recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU.

Las imágenes se convierten en una cadena de números mediante hash y luego se comparan con las imágenes de la base de datos.

Después de que salió todo esto, Apple se negó a comentar con Financial Times sobre lo que está sucediendo. Sin embargo, suponemos que la compañía está trabajando en alguna declaración oficial antes de que los mensajes sobre este movimiento se salgan de control.

Esto sienta un precedente peligroso

Probablemente no necesitemos decirle lo aterrador que podría ser esto. Las personas que abusan de los niños deben ser atrapadas y castigadas, pero es fácil ver cómo algo como esto podría usarse para propósitos mucho más invasivos.

¿Se implementará una tecnología similar en otras plataformas, como Mac, PC con Windows y teléfonos Android? ¿Podrían países como China usarlo para detectar imágenes subversivas en los teléfonos de sus ciudadanos? Si llega a ser ampliamente aceptado, ¿podría la industria de los derechos de autor utilizarlo para comenzar a escanear en busca de contenido pirateado en unos pocos años?

Relacionado:  Revisión de Nomad Base One Max: el cargador MagSafe que Apple debería haber hecho

E, incluso si funciona como se anuncia: ¿ quedarán atrapadas personas inocentes en el fuego cruzado?

Con suerte, esto no es tan preocupante como parece.