Estados Unidos

Apple dice que la función para buscar imágenes de niños no crea una puerta trasera

Bloomberg

El gigante tecnológico con sede en Cupertino, California, hizo los comentarios un día después de revelar nuevas funciones para iCloud

Bloomberg

Apple Inc. defendió las preocupaciones sobre sus próximas funciones de seguridad infantil, diciendo que no cree que su herramienta para localizar imágenes de pornografía infantil en el dispositivo de un usuario cree una puerta trasera que reduzca la privacidad.

El gigante tecnológico con sede en Cupertino, California, hizo los comentarios en una sesión informativa el viernes, un día después de revelar nuevas funciones para iCloud, Messages y Siri para combatir la propagación de imágenes sexualmente explícitas de niños. La compañía reiteró que no escanea toda la biblioteca de fotos del propietario de un dispositivo para buscar imágenes abusivas, sino que usa criptografía para comparar imágenes con una base de datos conocida proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados.

Algunos defensores de la privacidad e investigadores de seguridad estaban preocupados después del anuncio de Apple de que la compañía escanearía la colección de fotos completa de un usuario; en cambio, la compañía está utilizando un algoritmo en el dispositivo para detectar las imágenes sexualmente explícitas. Apple dijo que revisaría manualmente las fotos abusivas del dispositivo de un usuario solo si el algoritmo encontrara una cierta cantidad de ellas. La compañía también dijo que puede ajustar el algoritmo con el tiempo.

Apple dijo que no está rompiendo el cifrado de extremo a extremo con una nueva función en la aplicación Mensajes que analiza las fotos enviadas hacia o desde el iPhone de un niño en busca de material explícito, ni la compañía obtendrá acceso a los mensajes de los usuarios. Cuando se le preguntó en la sesión informativa si las nuevas herramientas significan que la compañía agregará cifrado de extremo a extremo a las copias de seguridad de almacenamiento de iCloud, Apple dijo que no comentaría sobre planes futuros. El cifrado de extremo a extremo, la forma más estricta de privacidad, permite que solo el remitente y el receptor vean un mensaje enviado entre ellos.

El jueves, la Electronic Frontier Foundation dijo que Apple está abriendo una puerta trasera a sus características de privacidad altamente promocionadas para los usuarios con las nuevas herramientas. “Es imposible construir un sistema de escaneo del lado del cliente que solo pueda usarse para imágenes sexualmente explícitas enviadas o recibidas por niños”, dijo la EFF en una publicación en su sitio web. "Como consecuencia, incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios".

Apple dijo que el sistema había estado en desarrollo durante años y no fue construido para que los gobiernos monitoreen a los ciudadanos. El sistema está disponible solo en los EE. UU., dijo Apple, y solo funciona si un usuario tiene habilitadas las fotos de iCloud.

Dan Boneh, un investigador de criptografía contratado por Apple para apoyar el proyecto, defendió las nuevas herramientas.

"Este problema afecta a muchos proveedores de la nube", dijo. “Algunos proveedores de nube abordan este problema escaneando fotos cargadas en la nube. Apple decidió invertir en un sistema más complejo que brinda la misma funcionalidad, pero lo hace sin que sus servidores revisen todas las fotos ".

TEMAS


Apple - Niños - Cloud - Privacidad de datos