Los piratas informáticos ya están engañando al escáner de fotos para iPhone de Apple

El logo de Apple sobre un fondo azul con líneas horizontales

Se ha hablado mucho sobre el escáner CSAM (Child Sexual Abuse Material) de Apple . Ahora, el escáner vuelve a ser noticia, ya que parece que los piratas informáticos podrían estar un paso más cerca de engañar al escáner CSAM y crear falsos positivos.

El problema con el escáner CSAM de Apple

Un usuario de Reddit hizo ingeniería inversa para comprender el algoritmo NeuralHash de Apple para la detección de CSAM en el dispositivo. Al hacerlo, descubrieron una posible colisión en el hash que podría generar falsos positivos. Una colisión es un choque potencial que se produce cuando dos datos tienen el mismo valor hash, suma de comprobación, huella digital o resumen criptográfico.

Un codificador llamado Cory Cornelius produjo una colisión en el algoritmo , lo que significa que encontraron dos imágenes que crean el mismo hash. Esto podría usarse para crear falsos positivos, lo que señalaría a Apple que las imágenes contienen abuso infantil, incluso si son completamente inocuas.

Si bien ciertamente no sería fácil, existe la posibilidad de que un pirata informático pueda generar una imagen que active las alertas de CSAM aunque no sea una imagen de CSAM.

Apple tiene capas diseñadas para asegurarse de que el falso positivo no cause ningún problema. Por ejemplo, cuando se marca una imagen, debe ser revisada por una persona real antes de enviarla a la policía. Antes incluso de llegar a ese punto, el pirata informático necesitaría obtener acceso a la base de datos hash del NCMEC, crear 30 imágenes en colisión y luego colocarlas todas en el teléfono del objetivo.

Relacionado:  Cómo hacer que los videos de YouTube siempre llenen la pantalla de su teléfono

Dicho esto, es solo otro problema que surge con el escáner CSAM de Apple. Ya ha habido una tremenda oposición, y el hecho de que los programadores hayan podido realizar ingeniería inversa es muy preocupante. En lugar de que una colisión tarde meses en aparecer, se descubrió una a las pocas horas de que el código se hiciera público. Eso es preocupante.

¿Apple hará algo?

Solo el tiempo dirá cómo afronta Apple esta situación. La empresa podría dar marcha atrás en su plan de utilizar el algoritmo NeuralHash. Como mínimo, la empresa debe abordar la situación, ya que la confianza en el plan de escaneo de fotografías de Apple ya es baja.