Nuevo software de Apple escanea las imágenes para detectar pornografía infantil

La compañía tiene mayor control en sus nuevos dispositivos
22 de septiembre de 2021 18:07

Apple anunció que contará con un sistema de almacenamiento en línea que será escaneado por un código que buscará similitudes en la base de datos de pornografía infantil. En caso de encontrar coincidencias, se informará al Centro Nacional para Niños Desaparecidos y Explotados.

Apple activó en sus nuevas versiones de iOS e iPadOS las aplicaciones de criptografía que limitarán la propagación de contenido pornográfico infantil.

Las imágenes se harán códigos numéricos que puedan coincidir con otra imagen de un dispositivo Apple para tener alta precisión.

"Antes de que una imagen se almacene en iCloud, se cotejará esa imagen con los códigos numéricos de fotos de abuso infantil conocidas", aseguró Apple.

Con el algoritmo neutralMatch se estará haciendo revisiones continuamente a las imágenes que sean almacenadas en iCloud.

La empresa confirmó que revisaran manualmente los informes para confirmar las coincidencias y evitar errores, después se deshabilitará la cuenta para dar parte a las autoridades. Por ahora solo funcionará en Estados Unidos.

El lema que afirmaba "lo que pasa en su iPhone se queda en su iPhone" genera controversia en especialistas de seguridad por la vigilancia que tendrán los usuarios. Apple dijo que solo se dará seguimiento a las fotos de usuarios que tengan material sobre abuso sexual infantil.

Contenido externo patrocinado